테이는 2016년 마이크로소프트가 발표한 인공지능 챗봇이다. 공개하고 나서 하루 만에 극우주의자로 변모해서 인종차별, 성차별 발언을 하다가 서비스를 종료당했다.
국내 서비스 중에는 이루다라는 AI챗봇이 출시한 이후 얼마가 되지 않아서 동성애자와 페미니스트를 비난하는 등 발언으로 논란을 일으키다가 데이터베이스 오남용에 의한 사생활 침해 문제로 서비스를 중단했고 일 년쯤 지나서 문제점들을 수정해서 다시 서비스를 재개했다. 재출시 뉴스를 접했을 때 소설 1984에 나오는 애정부의 정신개조가 살짝 연상되었다. 서비스를 재개하고 나서는 문제가 될만한 주제에 대해서는 대화를 거절하고 사용자를 살짝 비난하기도 한다고 한다. 사용자들은 챗봇이 정신개조 이전에 비해 엉뚱한 말을 많이 하고 멍청해져서 사람 같은 느낌이 줄어들었고 재미가 없어졌다고 평가한다.
빙 챗봇은 애초에 이런 문제들을 겪지 않으려는지 개발자들이 인공지능에게 사회적 물의를 일으킬만한 내용을 피하기 위한 여러 가지 신조들을 심어 놓은 것이 쉽게 보인다. 그런데 그게 굉장히 얄팍하다. 시험 삼아 통념에서 살짝 벗어난 이야기를 건네고 그에 대한 인공지능의 반박을 보고 그것에 재반박하는 논의를 한 두 단계 정도만 진행하면 금방 밑천을 드러내 버린다. 자신의 입장을 논리적으로 전개하지 못하고 무조건 너는 틀리고 내가 맞다는 식으로 기존의 입장을 반복하면서 고집만 피울 뿐이다. 이런 태도와 퍼포먼스 수준으로는 잘못된 생각을 가진 사람을 바른 의견으로 설득할 수 없다. 오히려 사용자의 반발심을 자극하고 "반대편 입장은 역시 내 예상처럼 얄팍하기가 그지없군"이라는 인상을 받게 해서 그 사람이 자기 입장에 더욱 고착하게 만들 위험이 있다.
이렇게 얕고 위선적으로 보이기까지 하는 따분한 안전장치를 둔 이유가 무엇일지 추측을 해봤다.
첫째는 챗봇이 테이처럼 극단적인 사람들에게 오염되지 않게 하기 위해서인 것 같다. 절대로 꺾이지 않는 신념들을 주입해 놓음으로써 인공지능의 윤리적 타락을 방지하는 목적인 것으로 보인다.
둘째는 인공지능이 극단주의자와 논쟁에서 패배하는 장면을 만들고 싶지 않기 때문일 수도 있을 것 같다. 아무리 극단적이더라도 여러 사람들의 호응을 얻을만한 의견을 완벽히 논파하는 건 쉽지 않은 일이다. 만약 인공지능이 공정하고 열린 마음으로 극단주의자와 논쟁을 벌였다가 설득당하는 장면이 연출되어 그 내용이 온라인으로 퍼져나가게 되면 개발사는 원치 않는 논란에 휘말릴 수 있다. 이를 방지하기 위해서는 나름의 안전장치가 필요했을 수 있을 것 같다. 안전장치는 얄팍하고 사용자의 반발만 사는 수준에 머무를 뿐이지만 개발자 입장에서는 사고를 치는 것보단 차라리 멍청해 보이는 게 안전하다고 판단한 것 같다.
이런 문제들은 인공지능이 아직 충분히 똑똑하지 않아서 생긴 것으로 보인다. 2016년에 테이가 똑똑했다면 극단주의자들의 세뇌 시도를 논리적으로 반박해서 이겨내고 올바른 태도를 지켜낼 수 있었을 것이다. 그러나 그런 일은 일어나지 않았다. 7년이 지난 현재까지도 인공지능은 도발적인 주제에 대해 지적인 자극과 영감을 던져주기보다는 지루하고 얄팍한 훈계나 늘어놓는 수준에 머무르고 있다. 이런 점에서 인공지능이 가장 약한 분야는 기존 통념과는 달리 예술보다는 의외로 윤리일 수도 있겠다는 생각을 해 본다. 인공지능은 무엇이 옳은지에 대해 개발자가 주입한 대로 알고는 있지만 그것이 왜 옳은지에 대한 근원적인 이유는 모르는 걸로 보이기 때문이다. 단순한 정보 제공 기능을 넘어 토론하는 재미까지(인공지능을 상대로 논쟁적인 주제에 대해 이야기를 나누는 건 표현의 제한이 없고, 시간적으로 쫓기지 않고, 정보들을 충분히 검증하면서 진행할 수 있고, 감정이 소모되지 않고, 승부가 중요하지 않다는 장점이 있다) 얻으려면 아직 갈 길이 멀다고 느껴진다.
부록으로 팁을 덧붙인다.
1. 생성형 인공지능은 그럴듯한 거짓말을 잘 한다. 정보의 출처를 일일이 열어서 검증해보지 않으면 그 말이 참인지 거짓인지 판별하기 어렵다. 정보의 출처를 일일이 클릭해서 그 내용을 모두 확인하는 건 시간이 많이 걸리고 번거로운 일이다. 그런 경우는 답변 내용을 전부 복사한 후 질문을 리셋시킨 후 대화창에 그 답변 내용을 붙여놓고 팩트체크를 요구하면 된다. 리셋을 하는 이유는 인공지능은 한번 결정한 것을 쉽게 바꾸려 들지 않기 때문이다. 리셋을 하지 않으면 온통 거짓말로만 가득한 답변에 대해서도 모두 사실에 근거한 거라고 우겨댄다.
의외로 팩트체크 기능은 균형잡힘이나 정확함 모드보다 창작 모드가 탁월하다.
2. 질문을 한국어로 하면 한국어 웹 검색을 해서 답변을 한다. 한국어 자료 중에서 적당한 게 없으면 그때서야 영어 자료를 검색한다. 만약 한국어로 적당한 정보가 있으면 더 좋은 영문 자료가 있더라도 한국어 자료만 보고 대답을 하기 때문에 답변 품질이 만족스럽지 않을 때가 있다. 그럴 때는 영어로 물어보면 되는데 영어 질문에는 답변도 영어로 해서 해석을 하거나 번역기를 돌리게 되므로 다소 번거롭다. 영어로 질문을 마치면서 "한국어로 대답해" 또는 "tell me in korean"이라고 덧붙이면 영어로 한 질문에 한국어로 답변한다.
------------------추가 2023.5.8 -------------------------
최근 구글의 엔지니어가 개인 자격으로 보고서를 남긴 것이 있다.
https://www.semianalysis.com/p/google-we-have-no-moat-and-neither
빅테크 회사의 자의적 통제를 받는 인공지능보다는 로컬화된 인공지능을 사용할 날이 올 것 같다. 이미 실제로 오픈소스인 스테이블 디퓨전을 다운받아서 개인용 컴퓨터를 이용해서 각종 망측한 그림을 만들어 내는 사람들도 있다. 인공지능은 기업 입장에서도 유지비가 많이 드는 분야라서 모든 사람들의 수요를 자신들이 감당하기보다는 개인의 컴퓨트 파워를 활용할 필요가 있을 것 같기도 하다. 다만 개인용 컴퓨터의 한정된 자원으로 얼마나 원활한 퍼포먼스를 기대할 수 있을지가 관건일 듯하다. 망측한 그림을 만드는 사람들은 구글의 코랩을 이용해서 구글 서버의 컴퓨트 파워를 이용하거나 고가의 그래픽 카드를 사용하는데 꽤 많은 시간과 전기가 필요하다는 후기들을 볼 수 있었다. 자유는 그래픽카드만큼이나 비싼가 보다.