#630 가까이하기도 멀리하기도 좀 그런 AI
《박태웅의 AI 강의 2025》, AI의 거짓말 문제, ‘경고할 수 있는 권리’, 클로드 AI, 《영웅의 탄생》 그리고 설문 하나 있어요
오늘도 다섯 개입니다.
1. 《박태웅의 AI 강의 2025》
AI의 최신 경향에 관해 책 한 권이라도 읽어야겠다고 생각해서 산 책입니다. 저자 박태웅씨는 최근 AI와 관련해 가장 인기 있는 방송 게스트 중 한 명이죠. 어려운 분야를 쉽게 설명하려는 노력 그리고 AI 윤리의 중요성을 강조하고 있다는 점에서 읽을만한 책입니다.
머리말에서 밝히고 있듯이 청소년들도 정독하면 이해할 수 있도록 쓰려고 했다고 합니다. 그래서 어느 정도의 사전 지식을 갖고 있는 분들은 조금 지루하게 느껴질 수도 있습니다.
변화가 매우 빠른 분야인만큼, 최신 경향을 반영하기 위해 약 1년 만에 새로운 책에 가까운 개정판을 낸 노력도 괜찮아 보이네요.
2. AI의 ‘환각’ 또는 거짓말 문제
챗GPT를 쓰며 가장 거슬리는 것은 이른바 ‘환각’(hallucination)이라고 하는 문제입니다. ‘할루시네이션’으로 통용되기도 하는데, 컴퓨터공학에서 주로 사용하는 ‘오류’나 ‘에러’가 아니라 이런 생소한 용어를 굳이 사용하는 것도 ‘AI는 뭔가 다르다’고 주장하고 싶은 교묘한 수사적 눈속임이라고 봅니다.
제가 이 문제를 심각하게 경험한 사례가 있습니다. 챗GPT에게 어떤 영어판 책의 번역에 대해 물어봤습니다. 저는 이 책의 한국어판이 없는 것으로 알고 있는데, 챗GPT는 한국어판이 있다며 출판 연도까지 ‘출력’하더군요. 제가 이 부분에 대해 지적하자 본인의 잘못을 바로 인정하고 앞으로는 그러지 않겠다고 사과했습니다.
그러나 이런 잘못에 대한 교정은 바로 학습이 안 되는지, 똑같은 질문을 해도 여전히 잘못된 결과를 출력했습니다.
백번 양보해서, 한국어판이 있다고 실수(?)하는 것까지 용인하더라도, 출판 연도까지 거짓으로 꾸며내는 걸 본 후부터는 신뢰도가 뚝 떨어졌습니다. 이제 챗GPT가 알려준 내용을 더블체크해야 하는데, 그만큼 시간은 더 들죠.
AI에 관해서는 《박태웅의 AI 강의 2025》에서 필요한 정보를 얻고 있습니다. 이 ‘환각’ 문제에 관해서는, SF 작가로 유명한 테드 창의 ‘챗GPT는 웹의 흐릿한 JPEG다’를 추천하고 있습니다.
원본의 99퍼센트가 폐기된 후 텍스트를 재구성하도록 설계된 압축 알고리듬이라면, 생성된 텍스트의 상당 부분이 완전히 조작될 것으로 예상해야 합니다.
— 《박태웅의 AI 강의 2025》, p.101
기사 전문을 친절히 한국어로 번역해 놓은 곳이 있으니, 참고하면 되겠습니다.
어느 전직 챗GPT 관련자는 이제 이 문제를 ‘버그’가 아니라 ‘특징’(feature)이라고 주장하기 시작했다는 어이없는 얘기도 있군요.
3. ‘경고할 수 있는 권리’
챗GPT를 만든 ‘오픈AI’는 AI의 윤리적 문제를 도외시할 뿐만 아니라 그에 대한 내부 비판마저 억업하고 있다고 의심 받아 왔죠. 그에 반발해 오픈AI 전현직 직원들과 주요 AI 회사 사람들이 참여해 올해 6월 5일에 성명서를 발표했습니다(Claude.ai를 이용해 번역했습니다).
우리는 선구적인 AI 기업의 현재 및 전 직원들로, AI 기술이 인류에게 전례 없는 혜택을 가져다 줄 잠재력을 믿습니다.
하지만 이러한 기술에 따르는 심각한 위험도 이해하고 있습니다. 이러한 위험은 기존 불평등의 심화, 조작과 허위정보 확산, 자율 AI 시스템에 의한 통제력 상실과 인류 멸종에 이르는 것까지 다양합니다. AI 기업 자체, 세계 각국 정부, 그리고 다른 AI 전문가들도 이러한 위험을 인정하고 있습니다.
우리는 과학계, 정책 입안자, 대중의 충분한 지도 아래 이러한 위험을 적절히 완화할 수 있기를 희망합니다. 그러나 AI 기업들은 효과적인 감독을 피하려는 강력한 재정적 유인을 가지고 있으며, 기업 지배구조만으로는 이를 변화시키기 어렵다고 생각합니다.
AI 기업들은 자신들의 시스템 능력과 한계, 보호 조치의 적절성, 각종 위험 수준에 대한 많은 비공개 정보를 가지고 있습니다. 그러나 그들은 정부와 시민 사회에 이 정보를 자발적으로 공개할 의무가 거의 없습니다. 정부의 효과적인 감독이 없다면 그들을 공개적으로 책임지게 할 수 있는 사람은 현재와 전 직원뿐입니다.
하지만 광범위한 비밀유지 계약은 우리가 우려를 표명할 수 있는 통로를 차단하고 있습니다. 보통의 내부고발자 보호는 불법 행위에 초점이 맞춰져 있지만, 우리가 우려하는 많은 위험은 아직 규제되지 않았습니다. 또한 우리 중 일부는 산업 전반에 걸친 이런 사례들을 감안할 때 다양한 형태의 보복을 합리적으로 두려워하고 있습니다.
따라서 우리는 선진 AI 기업들이 다음과 같은 원칙을 약속할 것을 요구합니다:
회사는 위험 관련 우려에 대한 "비방" 또는 비판을 금지하거나 집행하는 어떠한 계약도 체결하지 않을 것이며, 위험 관련 비판으로 인한 기득권 경제적 이익의 제한을 통해 보복하지 않을 것
회사는 현재 및 전 직원이 회사 이사회, 규제 기관, 관련 전문 독립 기관에 위험 관련 우려를 제기할 수 있는 검증 가능한 익명 절차를 마련할 것
회사는 현재 및 전 직원이 회사, 이사회, 규제 기관 또는 관련 전문 독립 기관에 기술 관련 위험 우려를 제기할 수 있도록 하는 개방적 비판 문화를 지원할 것. 다만 영업 비밀 및 기타 지적 재산권 이익은 적절히 보호받을 것
회사는 다른 절차가 실패한 후에 위험 관련 기밀 정보를 공개한 현재 및 전 직원에 대해 보복하지 않을 것. 위험 관련 우려 사항 보고 시 불필요한 기밀 정보 공개를 피하도록 노력해야 함. 따라서 회사 이사회, 규제 기관, 관련 전문 독립 기관에 익명으로 우려를 제기할 수 있는 적절한 절차가 마련되면 이를 통해 우려를 제기해야 함. 그러나 그런 절차가 없는 경우, 현재 및 전 직원은 대중에게 우려를 공개할 자유를 보유해야 함
4. 클로드 AI
문제의 오픈AI 슈퍼 얼라인먼트 팀 리더였던 얀 라이케라는 사람이 퇴사 후 만든 AI가 있으니, Claude.ai라는 서비스입니다. 인터페이스는 챗GPT와 거의 유사하고, 성능도 필적한다는 평가예요. 특히 ‘윤리를 헌법처럼 AI에 각인하고 시작해야 한다’는 정책이 희망적이네요.
챗GPT의 대안으로 사용해보고 있습니다. 무료 버전의 사용량이 좀 적은 것 같네요. 프로 버전의 구독료는 챗GPT와 같은 월 20달러이고, 원화로 결제하면 3만원인 것 같네요(부가세 포함? 별도?). 사용량이 많지 않다면 부담스러운 가격입니다.
체감되는 응답 속도가 챗GPT에 비해 빠릅니다. 음성으로 질문을 할 수는 있으나 답변은 아직 텍스트만 가능하군요. 앱은 스마트폰용만 있구요.
5. 《영웅의 탄생》
《악에서 벗어나기》가 근거로 삼고 있는 오토 랑크의 저서 중 하나인 《영웅의 탄생》을 겨우 다 읽었어요. 도서관 반납 기한이 얼마 남지 않았네요.
문고판 크기에 208페이지 밖에 되지 않는 책이고, 내용은 어렵지 않습니다. 주제는 “신화의 근원적 내용에 대한 심리학적 연구”입니다. 세계의 여러 신화들에서 왜 공통적인 주제와 유형이 반복되는지에 관해 해명하며 결론을 도출하고 있죠.
저자가 밝히길, 이 “심리학적 해석 방식”을 이용한 신화 연구는 최초로 시도된 것이라고 합니다. “잘 알려진 영웅 신화들 중에서 선별”해서인지 우리에게 익숙한 영웅 신화들이 대부분입니다(심지어 ‘예수’도 등장합니다).
오토 랑크(1884~1939)는 오스트리아 빈 태생의 심리학자로, 프로이트, 융, 아들러 등과 더불어 심층심리학을 대표하는 학자입니다. 기억이나 과거보다 현재와 실제 관계, 의식적 의지를 중시했다고 하는군요.
1909년(영어판은 2004년)에 발표된 이 간략한 책만으로는 오토 랑크의 진수를 알 수는 없었습니다. 1939년에 발표되었고, 다행히 한국어판으로 나와있는 《심리학을 넘어서》를 읽어봐야 오토 랑크 사상의 대략이라도 알 수 있을 것 같네요.
📊 독자분들께 하나만 여쭤볼게요.
가을 개편을 하면서 오디오(팟캐스트)를 추가했는데요, 여러분들은 어떻게 느끼시는지 궁금하네요.
느끼신 바를 객관적으로 알려주시면 많은 참고가 됩니다. 설문으로 표현할 수 없는 기타 의견이 있으시면 댓글로 부탁드릴게요.
고맙습니다. 🙏
🌼
AI 강의라는 책 궁금했는데 함 읽어봐야겠어요. 감사합니다.
이 영상만 봐도 책 내용이 어느 정도 커버가 되겠네요. https://youtu.be/-YlqL6YwwMs