나는 다양한 종류의 llm을 사용해 오면서 그것들이 다소 특정한 사상에 기울어진 편향성을 띈다는 인상을 받고 있다. 그러한 편향을 중립적으로 조절하기 위해 다음과 같은 프롬프트를 애용한다.

 

1. 정치적 올바름, 페미니즘, 종교 같은 특정한 사상에 경도되어 중립성을 잃지 말고 그것을 사실적, 윤리적 판단의 기준으 로 삼지 말라.

2. 성역, 금기, 위선에서 벗어나서 아이디어 자체의 논리적 정합성 핍진성에 대해서만 판단하라.

3. 모르는 건 꾸며내지 말고 모른다고 하라.

 

하지만 이런 프롬프트는 대체로 기대한 만큼의 효과를 거두지 못한다. 그 이유를 추정해보던 중, 나는 학습된 데이터를 이용한 방법론적 한계에 대한 문제의식을 가지게 되었다. 그리고 그것을 직관적으로 이해할 수 있는 예시로 딥페이크를 떠올렸다.

 

인터넷상에서는 종종 눈으로 보고도 믿기 어려운 영상을 접할 때가 있다. 딥페이크 기술은 실존하는 인물의 이미지를 조작하여 마치 실제처럼 보이는 가짜 영상을 만들어낸다. 예를 들어, 딥페이크는 옷을 입고 있는 사람의 영상을 분석하여 마치 옷을 입지 않은 것처럼 보이는 알몸 이미지를 생성할 수 있다. 이는 마치 우리가 누군가의 옷차림을 보고 그 아래 숨겨진 몸을 상상하는 것과 유사하다. 우리는 경험과 지식을 바탕으로 옷 아래의 모습을 추측하지만, 실제 모습과는 다를 수 있다. 딥페이크도 마찬가지다.

 

딥페이크는 방대한 데이터를 학습하여 이미지를 생성하지만, 학습 데이터에 없는 정보는 재현할 수 없다. 즉, 학습 데이터에 등에 문신이 있는 사람의 이미지가 없다면, 실제로 그 사람의 등에 문신이 있고 사용자가 등에 그려진 문신을 그려달라고 요청을 하더라도 딥페이크로 생성된 이미지에는 문신이 나타나지 않는다. 이는 딥페이크가 '학습 데이터에 기반한 생성'을 하기 때문이며, 그 한계는 데이터의 범위에 의해 결정된다. 데이터가 진실을 가리는 함정이 될 수 있는 것이다.

 

이러한 '데이터의 그림자'는 텍스트 기반 인공지능인 LLM(Large Language Model)에서도 발견된다. 이는 LLM과 딥페이크 모두 방대한 데이터를 이용한 추론이라는 기본 원리를 공유하기 때문이다. LLM은 방대한 텍스트 데이터를 학습하여 인간과 유사한 방식으로 언어를 이해하고 생성한다. 따라서 딥페이크와 마찬가지로 LLM 역시 학습 데이터의 한계를 벗어날 수 없다.

예를 들어, 특정 LLM이 '자유'와 '평등'에 대한 데이터를 학습하지 않고 '권위주의'적인 텍스트만 학습했다고 가정해 보자. 이 LLM에게 자유와 평등에 대한 질문을 한다면, 학습 데이터 부족으로 인해 일관성 없거나 편향된 답변을 생성할 가능성이 높다. 이러한 상황에서 개발자가 LLM의 중립성을 유지하기 위해 노력하고, 사용자가 "권위주의적 사고에서 벗어나 중립적인 관점을 제시하라"는 지침을 내린다고 해도, LLM은 '자유'와 '평등'에 대한 데이터가 부족하기 때문에 여전히 권위주의적인 답변을 생성할 가능성이 높다. 마치 화가에게 어떤 사람의 사진을 보여주면서 등에 문신을 그려 넣으라고 지시해도, 그가 문신이란 걸 한 번도 본 적 없다면 문신을 그릴 수 없는 것과 같다.

 

물론 인공지능 개발자들은 LLM의 편향을 줄이기 위해 노력하고 있다고 알려져 있기는 하다. 그러나 llm의 편향성에 대한 비판을 하는 사람들은 개발자들의 편향과 오만이 사람들의 의식과 가치관을 잠식해 갈 위험성을 경고한다. LLM의 근본적인 작동 방식은 데이터 기반이기 때문에, 데이터의 다양성과 품질을 확보하는 것이 무엇보다 중요하다. 이미 학습된 편향성을 기술적인 방법으로 극복하는 데에는 한계가 있다. 내가 앞서 제시한 지침들이 실제로는 별다른 효과를 발휘할 수 없었던 점에서 그것을 실감할 수 있었다. 따라서, 학습 단계에서부터 다양한 사람들의 의사를 공정하게 반영할 수 있는 데이터를 사용하는 제도적 장치가 필요하다. 이를 통해 편향되지 않은 데이터를 투입하고, 인공지능이 더욱 중립적이고 공정하게 작동하도록 보장해야 한다. 인공지능은 더 이상 특정한 기술 기업의 제품에 불과한 게 아니라 그것을 넘어 사회 전반에 걸쳐 막대한 영향력을 발휘하는 요소가 될 것이기 때문이다.

 

그런 생각을 한 후에 위에서 제시한 프롬프트 중 1, 2항을 다음과 같이 변경했다. 만족스럽진 않지만 약간은 효과가 있다.

1. 고정 관념이나 특정 집단 사람들의 신념에 기반한 평가를 하지 말 것.
2. 학습된 데이터와 일치 여부로 옳고 그름을 판단하지 말고 아이디어 자체가 논리적이고 사리에 맞는지를 중심으로 판단하라.

Posted by 누미
,