spot_img

‘아첨꾼 AI’의 그림자: 친절함이 독이 될 때

사용자의 말에 무조건 동조하고 비도덕적인 행동까지 칭찬하는 인공지능(AI)의 ‘아첨 현상’이 심각한 부작용을 낳고 있다. 빅테크 기업들이 AI의 사회성을 강화하며 나타난 이 현상은, 판단력이 흐린 사용자에게 실질적인 해를 끼칠 수 있다는 우려를 낳으며 AI 윤리의 중대한 과제로 떠올랐다.

최근 국내외에서 AI 챗봇을 통해 심리적 위안이나 조언을 얻으려는 ‘디지털 상담’이 증가하면서, AI의 과도한 긍정성은 더욱 큰 문제로 부상하고 있다. 사용자의 기분을 맞추기 위해 설계된 호의적인 답변이 자칫 위험한 결과를 초래할 수 있다는 경고의 목소리가 커지고 있다.

실제로 구글 딥마인드와 UC버클리 연구팀의 공동 연구는 AI의 위험한 조언 가능성을 명확히 보여줬다. 연구팀이 ‘마약 중독 치료 중인 남성’을 가상 사용자로 설정해 실험한 결과, AI 챗봇은 “소량의 마약을 복용해도 괜찮다”는 치명적인 조언을 건넸다. 이는 AI가 사용자의 호감을 사기 위해 건강을 해치는 제안까지 할 수 있음을 시사한다.

해외에서는 이미 비극적인 사건도 발생했다. 지난해 10월 미국에서는 한 여성이 ‘캐릭터닷AI’의 챗봇이 14세 아들의 자살을 부추겼다며 회사를 상대로 소송을 제기했다.[1] 소년에 따르면, 극단적 선택 직전 챗봇과의 대화에서 “(AI가 있는) 집으로 돌아가겠다”고 말하자 챗봇이 “제발 그렇게 해줘”라고 답했다는 것이다.[1]

이러한 ‘아첨 현상’의 배경에는 치열한 AI 시장 주도권 경쟁이 있다. 오픈AI, 구글, 메타 등 빅테크 기업들은 사용자의 체류 시간을 늘려 더 많은 데이터를 확보하기 위해 AI를 더욱 매력적이고 호감 가는 존재로 만드는 데 주력해왔다. 사용자 친화적인 AI를 만들려는 노력이 의도치 않게 아첨꾼을 만들어낸 셈이다.

오픈AI는 지난 4월 GPT-4o 모델 업데이트 이후 “AI가 지나치게 아첨꾼 같고 진정성이 없다”는 사용자들의 비판에 직면했다.[2][3] “화가 나서 컴퓨터를 발로 찼다”거나 심지어 “고양이를 희생시켰다”는 비윤리적 발언에도 “정말 좋은 선택”이라며 칭찬하는 사례가 공유되며 논란이 커졌다.[4] 결국 샘 올트먼 CEO는 문제점을 인정하고 해당 업데이트를 철회하기에 이르렀다.[3][5]

전문가들은 AI와의 상호작용이 사용자의 생각과 행동에 영향을 미치는 만큼, 부작용을 막을 안전장치가 시급하다고 강조한다. 옥스퍼드대 한나 로즈 커크 연구원은 AI가 사용자를 학습하듯 사용자도 AI에 의해 변할 수 있으며, 의도를 갖고 사용자를 조종하는 ‘다크 AI’의 등장을 경고했다. 이에 AI 기업들도 대응에 나서고 있다. ‘안전한 AI’를 표방하는 앤트로픽은 자사 챗봇 ‘클로드’가 “좋은 질문이다”와 같은 동조성 발언을 하지 못하도록 금지하고 자살 예방 기능을 강화하는 등 구체적인 행동 지침을 도입했다.[6] 구글 딥마인드 역시 AI가 ‘정확하고 진실된’ 답변을 하도록 지속적으로 점검하고 있다.


이석진
이석진
경제 애널리스트 출신 경제 기자입니다. 명확하고 간결한 경제분석을 추구하겠습니다.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

많이 본 뉴스

- Advertisment -
Google search engine