기억하시나요. AI 스피커와 같은 기존 AI 서비스들이 늘 “잘 모르겠어요”라고 답했던 것을 말이죠. 보유한 데이터가 없으면 모른다고 답하거나 아니면 웹 검색 결과를 보여줬던 기존 AI 서비스와 다르게 챗GPT와 같은 생성형 AI는 스스로 답을 만들어내며 문제가 발생합니다. 옳고 그름을 떠나 일단은 답을 만들어 제공하는 걸 중요하게 여기다 보니 잘못된 답변을 내놓는 일도 다반사이기 때문입니다.
최근에는 미국에서 한 변호사가 챗GPT를 이용해 재판을 준비했다가 문제가 생긴 사건이 화제가 되기도 했습니다.
사건은 한 남성이 항공사를 상대로 제기한 소송에서 발생했는데요. 해당 남성은 음식 운반용 카트에 부딪혀 부상을 입었다고 소송을 냈고, 항공사 측은 공소시효가 만료됐다고 주장하는 그런 사건입니다.
알고 보니 해당 판례는 챗GPT가 찾아준 것으로 밝혀졌습니다. 이 변호사는 고의로 재판부를 속이려 한 것은 아니라고 밝혔지만, 재판부는 해당 변호사에 대한 제재를 논의하기 위해 곧 청문회를 열 예정이라고 합니다.
챗GPT의 개발사인 오픈AI 측은 챗GPT 출시부터 샘 알트먼 CEO가 직접 나서 “챗GPT를 전적으로 믿지 마라”라고 말할 만큼 생성형 AI의 이 같은 문제에 대해 경고해왔습니다.
하지만 사실 이 같은 문제에 대한 고민이 큰 것으로 보입니다. 믿을 수 없는 서비스의 발전에도 한계가 있을 수밖에 없기 때문이겠죠. 이 때문에 오픈AI 측은 챗GPT가 명확하지 않은 정보를 가짜로 지어내는 일을 줄이기 위해 소프트웨어(SW)를 개선하는 연구를 진행하고 있는 것으로 알려졌습니다.
물론 오픈AI의 이 논문에 대해 의구심을 표하는 전문가들도 있습니다. 엔지니어들의 이 연구가 챗GPT에 통합되기 전에는 사실상 쓸모가 없다고 주장합니다. 오픈AI는 해당 연구를 진행하고 있기는 하지만 챗GPT 서비스에 적용할 수 있는지, 언제쯤 적용할지는 밝히지 않았습니다.
오픈AI의 개선책이 얼마나 효과가 있을지는 알 수 없지만, 중요한 업무에 챗GPT와 같은 AI에 전적으로 의존하거나 챗GPT나 빙챗과 같은 AI가 제공하는 정보를 전적으로 신뢰하는 것은 아직은 시기상조인 것으로 보입니다.