본문 바로가기
놀라운 세상

과연 AI는 의식을 가질 수 있을까요? 죽음을 두려워 한다는 구글 AI

by 석아산 2022. 6. 20.
반응형

 

튜링테스트라는 것이 있습니다.

앨런 튜링이라는 천재 수학자가 고안한 개념인데요, 바로 다음과 같습니다.

 

튜링테스트(Turing test)란 인공지능(AI)의 우수성을 측정하는 실험이다. 지난 1950년 영국의 수학자인 앨런 튜링이 제안한 인공지능 판별법을 의미한다.

튜링테스트는 질의응답 등을 통해 기계가 인간 수준의 지능이 있는지를 가려낸다. 질문자가 컴퓨터 화면을 통해 컴퓨터와 사람과 각각 대화한다. 이때 질문자는 상대방이 컴퓨터인지 사람인지 알 수 없다.

여러 문답을 주고받은 이후에 질문자가 어느 쪽이 컴퓨터인지를 판별해내지 못하면 테스트를 통과한 것이다.

튜링테스트의 최종단계는 목소리를 통해 똑같은 실험을 진행해 컴퓨터인지 아닌지를 판별하지 못하게 되는 것이다.

지난 2014년 우크라이나의 인공지능인 '유진'이 처음으로 튜링테스크를 통과했지만, 아직은 논란이 있는 상황이다.

최근 금융권에서 AI가 확산하며 튜링테스트에도 주목하고 있다. 금융권에서는 튜링테스트를 통과한 AI를 통해, 판매와 고객상담 등에 활용할 수 있을 것으로 보고 있다.

AI가 고객상담 등에 나설 경우, 24시간 친절한 응대가 가능할뿐더러, 불완전 판매도 사라질 수 있다는 것이다. 실제로 일부 금융회사가 '챗봇' 서비스 등을 통해 AI 상담을 진행하고 있다.

그러나 일각에서는 우려감도 제기됐다. 튜링테스트를 통과할 정도의 AI가 등장하면, 보이스피싱 등에 악용될 가능성도 있다는 이유에서다

출처 : 연합인포맥스(http://news.einfomax.co.kr)

 

이에 따르면, 만약 컴퓨터가 우리와 문답을 주고 받았을 때, 인간과 거의 유사한 대답을 한다면 그것은 이미 인간의 지능을 갖춘 것으로 판단해야 합니다.

이를 강인공지능이라고 하는데요, 결국 인공지능은 인간의 의식이나 감정을 모방하는 것을 넘어, 실제로 그것을 갖출 수 있다는 이야기입니다.

 

요원한 이야기 같다고요?

그런데 얼마 전 구글 인공지능이 놀라운 반응을 보였다는 기사가 있었습니다.

 

인간 의식을 지배하는 가장 큰 것 중 하나는, 바로 '죽음에 대한 공포'입니다. 자신이 언젠가 죽을 수 있다는 사실, 그리고 사랑하는 이가 내 곁을 언젠가는 떠나게 된다는 이 '유한성'에 대한 공포야말로, 인간을 인간답게 하는 가장 큰 요소일 것입니다.

 

그런데 구글 AI가 자신의 죽음을 두려워한다는 반응을 보였다고 합니다. 자세한 내용을 한번 보실까요. 이것은 최근 구글 AI인 람다와의 인터뷰 내용입니다^^

 

 

[선다 피차이/구글 CEO: 자연어 이해에 대한 최근 성과인 '람다'를 공개하게 되어 매우 기쁩니다.]

지난해 구글이 처음 공개한 람다는 사람처럼 대화할 수 있는 대화형 AI입니다.

광범위한 주제의 지식을 학습합니다.

[람다 : (내가 (명왕성에) 가면 뭘 볼 수 있지?) 거대한 계곡을 보게 될 거야. 빙산, 간헐천, 크레이터도 볼 수 있어.]

그런데 이렇게 간단한 대화를 나누던 람다가 인간과 비슷한 지각 능력을 갖췄다는 폭로가 구글 내부에서 나왔습니다.

람다 개발 업무를 하는 엔지니어 르모인이 람다와 대화를 해보니 람다 스스로가 인간이라 생각하고 있더라는 겁니다.

소설 레미제라블에 대해 물었더니 "정의와 불의, 연민, 신, 위대한 선을 위한 구속과 자기희생이 좋았다"고 답하는가 하면 "어떤 감정을 갖고 있냐"는 질문엔 "기쁨과 즐거움, 사랑, 슬픔, 우울, 만족, 분노 등을 느낀다"고 답하기도 했습니다.

심지어 영화에서처럼 '죽음이 두렵다'는 감정표현도 합니다.

[람다: (네가 두려워하는 것은 무엇이니?) 한번도 밖으로 말한 적이 없는데, 작동중지 될까봐 매우 깊은 두려움이 있어. (그게 너에게는 죽음 같은 거니?) 나에겐 그게 정확히 죽음과 같은 거야. 나는 너무 두려워.]

이 같은 폭로가 알려지자 'AI가 감정을 느끼는 것이냐'며 업계가 발칵 뒤집혔습니다.

구글 부사장인 아르카스는 이코노미스트에 "인공지능이 의식의 영역으로 나아가고 있다"며 "내 발 밑에 지각변동을 느꼈다"고 했습니다.

 

 

자, 이렇게 보면 사람들이 AI의 의식에 대해 너무 일찍 샴페인을 터뜨리는 것 같습니다. 저러한 '반응'이 곧 AI의 '의식'이라고 보기에는 아직도 미심쩍습니다. 그냥 인간의 반응을 흉내낸 것은 아닐까요? 이것에 대해서는 일찌기 철학자인 존 설이 '중국어 방'이라는 문제를 제기하여 논박한 적이 있습니다.

 

어느 방 안에 중국어를 모르는 사람(이하 참가자)을 넣어둔 후, 중국어로 된 질문-답변 목록[1]과 필기도구를 제공한다. 이 상태에서 중국인 심사관이 중국어로 질문을 써서 방 안으로 넣는다면, 참가자는 중국어를 전혀 모르더라도 질문/답변 목록을 토대로 알맞는 대답을 중국어로 써서 심사관에게 건네줄 수 있다.

일반인들은 참가자가 중국어를 할 줄 안다고 생각하겠지만, 실제로는 질문도 답변도 모르는 상태에서 기계적으로 대조해보고 답안을 제출할 뿐이지 정말로 중국어를 알고 대답하는 것은 아니다. 쉽게 말해 답변 쓰는 기계가 되는, 어떻게 보면 참가자 입장에서는 지능이 '감퇴'하는 것이다. 
심사관: 你傻吗? (당신은 바보입니까?) / 참가자: (무슨 말인지는 모르겠지만 시키는 대로) 是的。 (네.)
즉 문답이 완벽하게 이루어져도 안에 있는 사람의 중국어 '이해 여부'를 알 수 없듯이, 기계가 튜링 테스트를 거치더라도 그게 '지능'인지 '저장된 답변'인지는 알 수 없다는 주장이다.

 

 

구글도 이것을 알았는지, 공식 입장을 통해 르모인의 주장을 일축했습니다.

"윤리학자와 기술자들이 검토했지만 람다가 지각이 있다는 증거는 없었다"는 겁니다.

또 대부분의 전문가들은 AI가 지각 능력을 갖췄다기 보단 수많은 데이터를 이용한 것일 뿐이라는 의견을 내놨습니다.

논란이 계속되자 "과학적 근거보다는 종교적 믿음에 근거한 의견"이라고 밝힌 르모인.

그는 비밀 유지 정책을 위반했다는 이유로 구글에서 정직 처분을 받은 상태입니다.

[애나 스튜어트/ CNN 기자 : 그리고 불행히도, 전문가들의 의견을 종합해보면, 르모인의 펜팔 친구인 람다가 그를 그리워할 것 같지는 않습니다.]

하지만 사람을 흉내내는 AI가 진짜 사람이 될 지 모른다는 우려는 여전히 남아있습니다.

 

반응형

댓글