본문 바로가기
인공지능/인공지능

감각은 지금 인공지능에서는 잘못된 논의이다

by kosaeram 2022. 7. 20.
반응형

LaMDA의 대화

사용자와의 대화를 위해 만들어진 큰 언어 모델인 LaMDA는 감각이라고 워싱턴포스트에 말한 구글 엔지니어 블레이크 레모인에 관한 기사, 인터뷰, 기타 종류의 언론 보도로 열광하고 있습니다. 이 주제에 대한 다양한 테이크를 읽은 후 미디어는 현재의 AI 기술을 둘러싼 과대 광고에 환멸했다고 할 수밖에 없습니다. 딥뉴럴 네트워크가 '센텐스' 또는 '의식'이 아닌 이유에 대해 많은 기사가 논의했습니다. AI 시스템이 자신의 언어를 발명하고 모든 일을 맡아 인공지능(AI)을 향해 가속화한다는 선정적인 이야기를 뉴스 미디어가 만들던 수년 전에 비해 개선된 것입니다.

하지만 우리가 다시 감각과 의식에 대해 논의하고 있다는 사실은 중요한 포인트를 강조합니다. AI 시스템, 즉 대규모 언어 모델들이 점점 설득력을 더하고 있는 한편, 여러 상황에서 과학자들에 의해 지적되어 온 근본적인 결함에 시달리고 있습니다. 그리고 AI가 인간을 속인다는 말이 1960년대 엘리자챗봇 때부터 논의되어 온 것은 알지만 오늘날 LLM은 정말 차원이 다르다. 언어 모델이 어떻게 기능하는지 모를 경우 Blake Lemoine의 LaMDA와의 대화는 비록 그것들이 체리픽되고 편집된다 하더라도 거의 비현실적으로 보입니다. 여기서 말하고 싶은 것은 LLM과 현재의 AI 기술에 대해 '감성'과 '의식'이 가장 좋은 논의가 아니라는 것이다. 보다 중요한 논의는 인간의 호환성과 신뢰성에 관한 것입니다.특히 이들 기술은 일상적인 애플리케이션에 통합될 준비가 되어 있기 때문입니다.

 

라지스케일 언어 모델이 우리 언어를 구사하지 않는 이유

뉴럴 네트워크와 대규모 언어 모델의 동작에 대해서는 지난 1주일 동안 충분히 논의되고 있습니다. LLM을 비교하는 인간의 언어를 시작으로 상황을 확대해 보도록 하겠습니다. 인간에게 언어는 뇌에서 일어나는 복잡하고 다차원적인 활동을 전달하는 수단입니다 예를 들어 두 형제가 대화를 하고 있고 그 중 한 명이 '엄마'라고 말할 경우, 이 말은 멀리 떨어진 과거부터 최근까지 그녀의 목소리, 얼굴, 감정 및 다양한 경험을 포함한 뇌의 여러 부분에서의 많은 액티베이션과 관련되어 있습니다. 사실 형제의 뇌 속 표현은 각각의 경험에 따라 크게 다를 수 있지만, "엄마"라는 말은 그들이 같은 개념에 동의하는 데 도움이 되는 압축되고 잘 표현된 근사치를 제공합니다. 낯선 사람과의 대화에서 '엄마'라는 말을 사용하면 경험과 기억의 차이가 더 커집니다. 하지만 다시 말하지만, 당신의 머릿속에 있는 공통의 개념에 따라 어떻게든 합의에 도달할 수 있습니다.

언어를 압축 알고리즘으로서 뇌 내의 방대한 정보를 다른 사람에게 전달하는 데 도움이 된다고 생각하시길 바랍니다. 언어의 진화는 우리 환경에서의 육체적 상호작용에서부터 다른 인간과의 사회적 상호작용에 이르기까지 우리가 세계에서 경험한 경험과 직결되어 있습니다. 언어는 우리가 세계에서 공유하고 있는 경험을 바탕으로 구축되어 있습니다. 아이들은 첫 말을 하기 전부터 중력, 차원, 물체의 물리적 일관성, 고통, 슬픔, 공포, 가족, 우정 등 인간과 사회적 개념에 대해 알고 있다. 이런 경험이 없다면 말은 의미가 없다. 이것이언어가보통대화자가공유하는상식적인지식과정보를생략하는이유입니다. 한편 경험과 기억의 공유 수준에 따라 상대방과의 대화 깊이가 결정됩니다.

대조적으로 대규모 언어 모델에는 물리적 및 사회적 경험이 없습니다. 그들은 수십억 개의 단어에 대해 훈련을 받고 다음 단어의 배열을 예측함으로써 프롬프트에 반응하는 법을 배웁니다. 이는 특히 변압기 아키텍처 도입 이후 최근 몇 년간 큰 성과를 거두고 있는 접근방식입니다. 변압기는 어떻게 해서 매우 설득력 있는 예측을 하는 것일지 생각해보시길 바랍니다. 그들은 텍스트를 '토큰'과 '메우기'로 바꾸고 다차원 공간에서 단어를 수학적으로 표현합니다. 그런 다음 채우기를 처리하고 텍스트 시퀀스 내의 단어 간의 관계 및 글과 단락 내에서의 그 역할 등의 다른 차원을 추가합니다. 충분한 예를 들면, 이러한 매립은 단어가 시퀀스에서 어떻게 표시되어야 하는지에 대한 적절한 근사치를 작성할 수 있습니다. 변압기는 스케일러블이기 때문에 특히 인기가 좋습니다. 이들의 정확도는 커짐에 따라 향상되고 더 많은 데이터를 사용하게 되며, 대부분의 경우 감독되지 않은 학습을 통해 훈련을 받을 수 있습니다.

그러나 근본적인 차이는 남아 있다. 뉴럴 네트워크는 언어를 매립으로 변환함으로써 언어를 처리합니다. 인간에게 언어란 사고, 감정, 기억, 신체적 경험, 기타 뇌에 대해 아직 발견되지 않은 많은 것들을 심어주는 것입니다. 그렇기 때문에 그들의 큰 진보와 훌륭한 결과에도 불구하고 트랜스포머, 큰 언어 모델, 깊은 신경망 등은 아직 우리의 언어를 말하기에는 거리가 멀다고 할 수 있을 것입니다.

 

감성 vs 호환성 및 신뢰

오늘날 AI에 감성, 의식, 인성 등의 속성을 할당해야 하는지에 대한 논란이 많다. 이들 논의의 문제점은 모호하게 정의된 개념에 초점이 맞춰져 사람마다 다른 의미를 갖는다는 것입니다. 예를 들어 기능주의자들은 뉴럴 네트워크와 대규모 언어 모델은 의식적이라고 주장할 수 있습니다. 왜냐하면 뉴럴 네트워크와 대규모 언어 모델은 다른 기판 상에 구축되어 있어도 인간에게 기대하는 것과 같은 동작을 (적어도 부분적으로) 나타내기 때문입니다. 유기 물질은 의식의 필요 조건이라고 주장하며, 신경망은 결코 의식하지 않는다고 결론짓는 사람도 있을지도 모릅니다. qualia, 중국어 방 실험, 튜링 테스트 등에 대해 논의를 던질 수 있어 논란은 영원히 계속될 수 있습니다.

하지만 보다 현실적인 질문은 현재의 신경망이 인간의 마음과 얼마나 '호환성' 있고 중요한 애플리케이션으로 어디까지 신뢰할 수 있느냐 하는 것입니다. 그리고 이것은 중요한 논의입니다. 왜냐하면 대규모 언어 모델은 그것들을 상용화하려는 기업에 의해 개발되고 있기 때문입니다. 예를 들어 충분한 훈련이 있으면 침팬지를 훈련하고 차를 탈 수 있을지도 모릅니다만, 보행자가 횡단하는 도로의 핸들 뒤에 놓아 줄 수 있습니다. 아무리 머리가 좋아도 침팬지는 인간과 같은 생각을 하지 않고 인간의 안전에 관한 일을 책임질 수 없다는 것을 알기 때문입니다. 마찬가지로 앵무새는 많은 문구를 가르칠 수 있습니다. 하지만 고객님의 고객 서비스 담당자라고 생각하세요? 아마 아닐 거예요.

인간에 관해서도 일부 인지장애는 인간의 상호작용을 필요로 하는 특정한 직업이나 임무를 맡거나 인간의 안전을 고려하지 못하게 한다. 많은 경우, 이 사람들은 긴 대화 속에서 읽고 쓰고 유창하게 말하며 일관성과 논리성을 유지할 수 있습니다. 우리는 그들의 감성이나 의식이나 인간성에 의문을 던지지 않지만 그들의 결정은 질병 때문에 일관성이 없고 예측 불가능해질 수 있다는 것을 알고 있습니다. 중요한 것은 그 사람이 여느 사람과 똑같이 생각하고 결단할 수 있느냐이다. 많은 경우, 우리는 사람들의 감각 시스템, 상식적인 지식, 감정, 목표, 보상은 비록 그들이 우리의 언어를 말하지 않더라도 우리와 거의 호환된다는 것을 알기 때문에 일하는 사람들을 신뢰합니다. LaMDA에 대해서 무엇을 알고 있습니까?첫째, 우리처럼 세계를 감지할 수 없는 언어의 '지식'은 우리와 같은 경험에 기초하고 있는 것이 아닙니다. 그 상식적인 지식은 불안정한 기초 위에서 이루어진다.왜냐하면 대량의 텍스트가 우리가 언어로 생략한 것을 망라한다는 보장은 없기 때문입니다.

이 비호환성을 감안할 때 LaMDA나 기타 대규모 언어 모델이 텍스트 출력을 얼마나 잘 처리하고 있다고 해도 어디까지 신뢰할 수 있을까요. 친근하고 즐거운 챗봇 프로그램은 대화를 민감한 이슈로 이끌지 않는 한 나쁘지 않을 수 있다. 검색 엔진은 LLM에게도 좋은 애플리케이션 영역이다(Google은 수년 전부터 BERT를 사용하고 있다). 그러나 오픈엔드 고객 서비스 챗봇이나 은행 어드바이저(여러 관련 대화 녹음으로 훈련이나 조정을 받은 경우에도) 등 보다 기밀성 높은 태스크로 그들을 신뢰할 수 있습니까. LLM의 일관성과 다양한 분야에서의 인간 상식 간의 호환성을 테스트하려면 애플리케이션 고유의 벤치마크가 필요하다고 생각합니다. 실제 어플리케이션에 관해서는 LLM이 어디에서 대화를 금지할지를 결정하고 인간 오퍼레이터에게 넘기는 경계가 항상 명확하게 정의되어야 합니다.

 

반응형

댓글