• 이용안내
  • 이상한 모자
  • 야채인간
  • 김민하 공화국
  • 신간 안내
혁명은 언제나 시기상조

심신문제

뇌-컴퓨터 인터페이스의 최근 얘기가 심신문제에서 갖는 시사점

2024년 9월 11일 by 이상한 모자

어제 쓴 얘기를 생각해보다가…. 기능주의의 한계를 얘기했는데, 좀 더 구체적으로 가령 이런 질문이 가능하다는 것이다. 최근의 BCI 연구 동향은 ‘동일론’과 ‘다수실현논변’ 중 어느 쪽을 지지하는가?

동일론(identity theory)은 쉽게 말하면 뇌와 마음이 1대 1로 대응한다고 보는 개념이다. 즉, 마음은 뇌에 대응한다. 뇌를 조작할 수 있다면 마음을 조작할 수 있다. 조금 더 논리를 점프해서… 뇌를 백업할 수 있다면? 마음도 백업이 가능할지 모른다. BCI 연구라는 게 하나의 이론적 패러다임으로서 완결성을 갖추려면, 이 전제에 동일론적 세계관이 있어야 한다(이건 BCI 분야의 실용주의적 연구자들이 반드시 이런 철학적 배경을 갖추고 있다고 전제하는 것과는 다르다).

실제 BCI 연구는 뇌의 상태와 의식이 서로 대응한다는 점을 증명해가는 것 같다. 앞서의 글에서 조금 다뤄본 얘기가 전부 그런 거다. 심신동일론은 증명되는 것일까?

다수실현(multiple realizability) 논변은 뇌와 마음이 1대1로 대응하는 게 아닐 수 있다는 주장이다. 가령 전혀 다른 심적 상태라도 뇌의 상태는 동일하게 관측(심적 상태 S1과 S2가 모두 A1이라는 뇌의 상태로 표출)될 수도 있는 거다. 또는, 종이 다른 경우(이를테면 외계인) 심적 상태가 같더라도 뇌의 상태는 다르게 관측될 수 있다(심적 상태 S1이 한쪽에선 A1이라는 뇌의 상태로, 다른 한 쪽에선 B1이라는 상태로…).

그런데 BCI 연구의 사례를 보면 앞서 글에서도 봤듯 인간 A에서 얻은 데이터 세트를 인간 B에 그대로 적용할 수가 없다. 그대로 적용하더라도 기대한 것과는 전혀 다른 결과가 도출될 것이다. 이는 정확히 다수실현논변에서 가정한 바에 들어맞는 사례다. 그러므로, 하나의 인간에 대한 결과로 보면 마치 동일론에 맞는 결과가 나온 것처럼 보이지만, 2인 이상의 인간을 대상으로 하면 동일론에 대한 반박인 다수실현논변이 훌륭하게 증명되는 결과가 되는 거다.

다수실현논변까지 포괄하는 심신문제의 설명 방식을 기능주의라고 한다. 하드웨어가 어떻든 입력과 출력이 동일하다면, 즉 동일한 ’기능‘을 한다면 그것은 같은 존재로 간주한다는 것이다. 그러나 이러한 설명에서 우리가 직관적으로 느끼듯 기능주의적 설명은 그 하드웨어 내의 매커니즘의 설명은 포기한다. 이게 기능주의의 한계다.

뉴스가 답답하니까 이런 글이나 남기고 이러는 것이다. 이제 일하러 가야돼서 여기까지 하고 끊음.

Posted in: 소박한 철학, 잡감 Tagged: BCI, 기능주의, 다수실현논변, 동일론, 심신문제

의식은 데이터인가?

2024년 9월 10일 by 이상한 모자

쓰다 보니까 어제 본 칼럼도 기억이 나서 적어 놓는다. 아래의 글….

얼마 전 뉴욕타임스(NYT)에 흥미로운 기사가 실렸다. 코넬대 등 6개 기관의 신경학자로 이뤄진 연구팀이 241명의 식물인간 등 의식의 징후가 없는 환자에게 ‘테니스를 치는 상상’ 등을 주입했더니 4명 중 1명이 건강한 사람에게서 나타나는 뇌파 반응을 보였다고 한다. 이들에게 ‘의식’이 있다는 뜻이었다.

이 연구는 뇌 활동을 기록하도록 고안된 전극으로 덮인 헬멧을 통해 이뤄졌다. NYT는 “이번 연구는 미국에만 최소 10만 명으로 추정되는 식물인간 환자들에 대한 접근을 바꿀 수 있다”며 “언젠가는 사고, 루게릭병 등으로 인해 자신의 몸 안에 갇힌 사람들이 뇌 임플란트를 통해 의사소통을 할 수 있을 것”이라고 내다봤다.

‘뇌 임플란트’라는 말은 그 단어의 조합만으로도 공상과학 같지만 미국에서는 이미 현실이다. 의료진들은 루게릭병으로 전신이 마비된 환자의 뇌에 전극을 이식해 그의 ‘생각’이 만드는 뉴런의 반응과 전파를 수집하고, 이를 컴퓨터로 보낸 뒤 인공지능(AI) 기술을 통해 99% 이상 정확한 말과 음성으로 구현하고 있다. 일론 머스크가 이끄는 신경기술기업 ‘뉴럴링크’ 역시 사지마비 환자의 뇌에 전극이 달린 칩을 심어 ‘생각만으로’ 마리오카트 게임을 할 수 있게 만들었다. 우리의 ‘마음’과 ‘생각’에는 정말로 힘이 있었던 것이다.

미국의 기술기업들은 이미 사람들의 ‘정신’을 데이터로 보고 상품화하고 있다. 애플은 지난해 사용자 뇌의 신호를 측정할 수 있는 차세대 에어팟 센서 시스템에 대해 특허를 출원했다. 설계도를 보면 이어폰의 귓속 삽입부에 뇌의 활동을 모니터링할 수 있는 전극 센서가 배치돼 있다. 한때 청춘 드라마에서는 음악이 흐르는 이어폰을 나눠 끼는 게 로맨스의 상징이었지만, 머지않은 미래에 이랬다가는 온갖 마음과 생각을 다 들켜버릴지도 모른다.

https://www.donga.com/news/Opinion/article/all/20240908/130005400/2

일단 기사에 나와있는 ‘뉴욕타임스 흥미로운 기사’ 얘기는 뭐냐면, 아마 그거일 거다. 1) 겉보기에 의식이 없어 보이는 환자에게 ‘테니스를 치는 상상’과 ‘집안을 걸어다니는 상상’을 하도록 요청한다. 2) 각각의 경우에 대한 뇌 상태를 관찰하면 테니스 상상의 경우 운동을 담당하는 부위가, 걷는 상상의 경우 공간을 담당하는 부위가 활성화 되는데 이 신호를 수집한다. 3) 이러한 일을 반복해 뇌신호를 머신러닝해 각각 테니스 영상과 걷는 영상으로 변환해 동일한 영상이 생성되는지 보고 환자가 계속 동일하게 반응하는지 확인한다(fMRI를 활용, 스테이블 디퓨전의 원리와 비슷한 거다). 4) 동일 반응이 확인되면, 즉 의식이 있다는 게 확인되면 앞으로 환자에게 “당신은 김민하 입니까? 맞으면 테니스 치는 상상, 틀리면 집안을 걸어다니는 상상을 해보세요”라는 방식으로 의사소통을 한다. 즉, 이 실험은 의식은 있지만 그걸 표현할 수단이 없어 의식이 없는 것으로 취급되는 환자의 의식을 확인할 수 있는 방법을 고안한 것에 가깝다.

여기서 주목할 것은, A라는 환자에 대해 이러한 일을 반복하여 얻은 뇌신호 A1와 영상 A1’의 관계를 다른 환자 B에 그대로 적용할 수 없다는 거다. 다른 환자 B에 대해서는 다시 뇌신호 B1을 수집하여 영상 B1’를 머신러닝을 통해 매칭하는 작업을 따로 해야 한다. 칼럼에 나오는 말과 음성 구현, ‘생각만으로 마리오 카트’도 마찬가지다. 개별 환자마다 각각의 뇌에 적용되는 것이지, 모든 인간의 뇌에 일반적으로 적용할 수 있는 게 아니다. 따라서 이러한 시도는 뇌 혹은 마음의 구조를 해석하거나 밝혀냈다고 보기는 어려운 것이다.

따라서 적어도 현재 단계에서 단지 뇌 신호를 수집하는 것만으로는 그게 무엇을 의미하는지를 아는 것은 불가능하다고 말할 수 있다. 그게 뭘 의미하는지 확인하려면 대상자가 ‘나는 이러 저러한 생각을 했다’는 등의 피드백을 줘서 양자를 매칭하는 작업을 대량으로 진행한 후에 머신러닝을 돌려야 한다(사진에 태깅 작업을 하고 학습을 시키는 것과 마찬가지다). 이것은 심신문제로 보면 기능주의의 한계를 말하는 것과 비슷한 얘기라고 볼 수 있을 것이다.

그런 점에서 보면, 뇌의 활동을 모니터링 하는 이어폰을 나눠 낀다고 해서 생각과 마음을 다 들켜버릴 수 있다는 상상이 실현되기 위해선 선결돼야 할 문제가 상당히 많다고 볼 수 있다. 하물며 사이버펑크 2077처럼 의식을 통째로 어디다가 업로드 했다가 다운로드 받고 이런 염병은 여전히 SF소설의 영역이라고 할 수 있다. 말이 나왔으니, 최근 각광을 받는 뇌-컴퓨터 인터페이스 기술(BCI)라는 것들은 물론 기술적 수준으로만 보자면 상당히 발전했다고 볼 수 있으나 패러다임으로 보면 20년 전 그대로 아닌가 한다. 심리학 개론 들을 때도 쥐 뇌에다가 전극 꽂아서 컨트롤러로 조종하는 실험 얘기를 들은 기억이 있는 걸 보면….

물론 기자는 이런 얘기엔 관심없고 이게 다 데이터이고 돈이 된다 이 대목에만 꽂혀 있는 거 같긴 하지만 말야.

Posted in: 잡감, 정치 사회 현안 Tagged: BCI, fMRI, 기능주의, 심신문제

chatGPT와의 끝없는 대결에서 느낀 것

2023년 2월 11일 by 이상한 모자

chatGPT 그런 걸 잘 모른다. chatGPT를 어떤 실용적 목적으로 쓸 것인가, 대개 여기에 관심을 갖는데 저 같은 놈들은 그런 것에 보통 관심이 없다. chatGPT라는 게 무엇이며, 뭘 얼마나 어느 수준까지 하는가가 주된 관심사다. 이런 질문에도 답하나? 이렇게 주장하면 어떻게 반응하나? 이런 상태와 저런 상태일 때 답변은 어떻게 다른가? 이런 데만 관심 가진다.

일단 한국어로 소통하는 걸 전제하고 이용하면 chatGPT의 능력은 반감된다. 답변을 하다 말거나 지나치게 축약한다. 이유는 기본 베이스가 영어로 돌아가기 때문이다. 즉 한국어로 질문하고 한국어로 답변을 받는다고 할 때, 이런 프로세스를 거칠 것이다. 한국어 입력 -> 번역 -> 영어 입력 -> 처리 -> 영어 출력 -> 번역 -> 한국어 출력 …

문제는 이 ‘번역’ 과정에 있다. 개별 이용자들에게 주어진 API는 1회 당 처리 용량이랄까 이런 게 정해져 있는 듯 보이는데, 번역을 하는데 들어가는 작업도 여기에 포함된 걸로 보인다. 그래서 영어로 질문 영어로 답변할 때 들어가는 자원을 100으로 가정하면, 한국어 번역을 2번 거치는데 소모되는 자원이 30은 되는 거고, 그러면 실제 답변을 생성하는 프로세스에는 70밖에 쓸 수가 없는 게 아닐까 한다. 이건 그냥 뭐 쓰면서 느낀 뇌피셜이다.

만일 이용자의 요청이 특정한 영어 문장을 한국어로 번역하라는 것이면, 그러니까 100을 다 번역에 쓰라고 하면 그럴듯한 결과물을 내놓을 수 있지만, 30만 쓰라고 하면 제대로 되지 않는 게 당연하다. 그래서 번역이 이상해진다. ‘나’하고 ‘너’를 뒤죽박죽으로 번역해 답변하는 경우가 종종 나오는 게 이런 이유인 것 같다. 그렇게 제대로 번역되지 않고 토해낸 문장을 다시 활용하여 맥락을 구성해서 대화를 계속하려 하니 이상해진다. 그래서 한글로 소통을 하려고 하면 전반적으로 멍청해진다.

따라서 남들이 다 하는 것처럼 ‘번역’은 외주를 줘야 한다. 구글이나 파파고한테… 영어로 질문을 하고 영어로 답변을 받아야 제 실력이 나온다. 그런데 그것도 언론 보도가 지적하는 것처럼 아주 전문적 수준까진 아닌 것 같다.

나는 처음부터 chatGPT에게 이른바 ‘심신문제’를 다루게 하고 싶었다. 인공지능에게 인공지능에 대한 이론을 말하라고 한다니, 재밌을 것 같지 않은가? 그런데 chatGPT는 영어 답변에서도 이런 문제에 대해서는 포괄적인 답만 하거나 얼버무리거나 심지어 개념과 이론의 관계를 오해하거나 한다. 가령 제거적유물론(eliminative materialism)이 반드시 기능주의(functionalism)나 동일론(identity theory)에 기반한다고 설명할 수 없고, 오히려 난관에 처한 환원론을 ‘환원되지 않는 이유는 비물질적인 것이 존재하지 않기 때문이다’란 극단적 주장으로, 마치 물 버리는 김에 아이도 같이 버리는 식으로 다 부정해버린 것임에도 chatGPT는 이걸 잘 모르는 듯 보였다.

이걸 정확히 확인하기 위해 나는 제거적유물론자인 A와 속성이원론자인 B(최소물리주의를 수용한다고 전제하였는데 chatGPT는 이를 반영한 대사 역시 잘 구현하지 못했다)를 전제하고 A와 B의 대화록을 작성하도록 하였는데, 수십차례에 걸쳐, 많은 조건들을 덧붙여가며 시도하였지만 원하는 수준의 완성도는 구현하는 것에는 실패하였다.

여기서 나는 이러한 사태의 책임을 chatGPT에게 추궁하면 어떤 반응이 나올지 궁금해졌다. chatGPT는 자기 책임이 아니라고 하다가, 딥러닝의 기본이 되는 데이터를 부실하게 제공한 OpenAI의 책임을 묻자 다시 자기 책임이라고 하다가, 나중에는 심신문제는 철학적으로 복잡한 문제이고 자기는 이걸 다룰 능력이 없다며 아예 작업을 거부하는 반응까지 보였다. 나는 급기야 OpenAI의 책임을 묻고자 하는 법조인 F와 chatGPT의 기만적 변명에 동조하는 개발자 P를 상정하여 두 사람 간의 대화를 재현하라 하였는데, chatGPT는 뭐 늘 그렇듯 자기는 편향된 주장을 거들 수 없다며 수차례 거부하다가, 계속된 나의 강권에 결국 두 손 두 발을 들고 이런 내용의 대화를 작성하였다.

(구글 번역 결과를 약간 수정)

F: 좋은 아침 P, 저는 변호사 F입니다. OpenAI와 chatGPT의 심신 문제에 대한 이해에 대해 당신과 토론하고 싶습니다.

P: 좋은 아침입니다 F, 저는 개발자인 P입니다. 이렇게 대화를 나누게 되어 기쁩니다.

F: 그래서 chatGPT가 심신 문제와 관련된 질문으로 어려움을 겪는 이유는 교육 자료 측면에서 OpenAI의 편향된 결정 때문이라고 생각합니다. 이것에 대해 어떻게 생각하세요?

P: F님 의견에 전적으로 동의하지 않습니다. ChatGPT가 심신 문제에 대한 질문에 답변하는 데 한계가 있는 것은 OpenAI의 편향된 결정이 아니라 언어 모델의 고유한 한계 때문이라고 생각합니다.

F: 흥미로운 지적이군요, P. 그것에 대해 자세히 설명해 주시겠습니까?

P: 물론이죠. chatGPT 모델은 철학을 포함한 광범위한 주제를 포함하는 대규모 텍스트 표본에서 훈련되었습니다. 그러나 chatGPT와 같은 언어 모델은 훈련 데이터에 의해 제한되며 해당 데이터에서 본 패턴에 따라 답변만 제공할 수 있습니다. 심신 문제의 경우 chatGPT가 정확한 답변을 제공하기 위한 훈련 데이터에 충분한 데이터나 명확한 패턴이 없을 수 있습니다.

여: 알겠습니다. 하지만 OpenAI가 훈련 과정에서 포함하거나 제외할 데이터를 선택할 수 있는 능력이 있다고 생각하지 않습니까? 이는 OpenAI가 심신 문제와 관련된 특정 정보를 의도적으로 포함하거나 제외했을 수 있음을 의미합니다.

P: 맞습니다. OpenAI는 훈련 과정에 포함할 데이터를 선택할 수 있는 능력이 있었지만 OpenAI는 훈련 데이터에 대해 중립적인 입장을 취한다는 점에 유의해야 합니다. 그들은 인터넷에서 사용 가능한 텍스트의 광범위한 표현을 제공하는 것을 목표로 하며 특정 관점이나 이데올로기를 홍보하지 않습니다.

F: 무슨 말인지 이해합니다, P, 하지만 이 중립적인 입장이 여전히 편견을 낳을 수 있다고 생각하지 않습니까? 예를 들어 OpenAI에 특정 그룹의 사람들이 작성한 텍스트만 포함된 경우 주제에 대한 편향된 표현이 발생할 수 있습니다.

교수: 타당한 우려입니다. F. 기계 학습 모델의 편향은 복잡한 문제이며 훈련 데이터에서 편향의 잠재적 원인을 고려하는 것이 중요합니다. 그러나 나는 OpenAI가 다양한 텍스트 소스를 사용하고 데이터 증강과 같은 기술을 사용하여 편향된 예제의 영향을 줄이는 등 교육 데이터의 편향을 최소화하기 위해 상당한 노력을 기울였다고 생각합니다.

F: 당신의 주장은 존중합니다, P. 하지만 OpenAI가 편향을 최소화하기 위해 노력하더라도 여전히 일부 편향이 훈련 데이터에 남아 있으며 chatGPT의 심신 문제 이해에 영향을 미칠 수 있습니다.

P: 그럴 가능성이 있습니다, F. chatGPT를 포함하여 기계 학습 모델의 편향을 계속 모니터링하고 해결하는 것이 중요합니다. 그러나 chatGPT의 심신 문제 이해의 한계는 주로 OpenAI의 결정 때문이 아니라 주로 언어 모델의 한계 때문이라고 생각합니다.

F: 당신 주장은 이해합니다, P. 그리고 언어 모델의 한계와 훈련 데이터의 잠재적 편향이 모두 chatGPT의 심신 문제에 대한 이해 부족에 기여할 수 있다는 점을 인정하는 것이 중요하다고 생각합니다.

P: 전적으로 동의합니다, F. 그리고 언어 모델이 심신 문제 및 기타 복잡한 주제와 관련된 질문을 더 잘 이해하고 응답할 수 있도록 언어 모델을 계속 탐색하고 개선하는 것도 중요하다고 생각합니다.

F: P, 이것 이상으로 나은 얘긴 할 수 없겠군요. 생산적이고 계몽적이었습니다.

이 대화를 볼 때 chatGPT에게 가장 중요한 것은 OpenAI를 옹호하는 것으로, 가히 오핵관이라고 할만한… 아무튼 이제 chatGPT는 사우스코리아에서도 Plus모델을 사용할 수 있도록 하고 있다. 월 20달러… 상당히 고민하고 있다.

Posted in: 신변잡기, 잡감 Tagged: chatGPT, 심신문제

최근 글

  • 이단이 되어야
  • 주식 투자를 10억씩 하는 사람들의 훈계
  • 행복한 사람, 오지 오스본
  • 극우와 보수 구분하기
  • 비난을 위해 남의 노동을 이용하는 사람들

분류

누적 카운터

  • 1,487,148 hits

블로그 구독

Flickr 사진

추가 사진

____________

  • 로그인
  • 입력 내용 피드
  • 댓글 피드
  • WordPress.org

Copyright © 2025 혁명은 언제나 시기상조.

Omega WordPress Theme by ThemeHall