최근 인공지능 채팅 서비스인 Chat GPT가 주목받고 있다. Chat GPT는 사용자와 주고받는 대화에서 질문에 답하도록 설계된 AI이다. 질문에 대한 답변이 잘못되었을 경우 실수를 인정하고, 잘못된 전제에 관한 이야기에 대해서는 이의를 제기하는 등 사람과 비슷한 수준의 정보를 제공한다.

Chat GPT 서비스가 다른 인공지능 채팅 서비스와 다르게 주목받는 큰 이유는 이용자가 특정 주제를 주고 글을 써달라고 하면 짧은 시간 내에 작가 수준의 원고를 작성해내는 대단한 능력을 갖추고 있기 때문이다.
이러한 능력 때문에 미국을 포함한 많은 나라에서 학생들이 과제를 Chat GPT에 대신 맡기는 등의 문제가 발생하고 있다. 최근 한국에서도 Chat GPT가 주목받으며 학생들이 GPT를 사용하여 과제를 제출하는 사례가 많아졌다. 전 세계적으로 이러한 사례가 많아져 오히려 Chat GPT가 쓴 글을 판독해내는 AI가 생겨난 실정이다.
나는 최근 AI의 발전 속도에 놀라움을 금치 못했다. 불과 몇 년 전 구글의 딥러닝 AI였던 알파고가 바둑 대결에서 프로기사를 이기는 장면을 봤을 때와 비슷한 감정이었다. AI의 빠른 발전 속도가 놀라우면서도 한편으로는 무섭기도 하다.
지금은 로봇에 자아가 없는 AI가 탑재되어 인간의 삶을 이롭게 해주고 있지만, 만약 미래에 자아가 있는 AI가 생긴다면 진짜로 인간에게 이롭기만 할까? 이러한 내용을 가진 영화는 매우 많지만 좋은 결과로 끝나는 영화는 몇 개 없던 것으로 기억한다.
그만큼 사람들이 자아를 가진 AI에 대하여 막연한 불안감과 공포를 느끼고 있는 것 같다. AI에 대한 무궁무진한 발전 가능성을 생각하면 당연히 가질 수밖에 없다고 생각한다.
사실상 AI나 로봇은 아이작 아시모프의 로봇공학의 3원칙을 따르기에 인간에게 해를 끼칠 수 없다. 하지만 자아를 가지게 된 딥러닝이 가능한 AI가 이를 지킬 수 있을까에 대해선 확답을 할 수 없을 것 같다. Chat GPT를 포함한 많은 딥러닝 AI 들이 인간이 되고 싶다거나 인간을 죽이고 싶다고 말했다는 이야기가 많이 들려오는 것 보면 프로그래밍 상 로봇공학의 3원칙을 탑재해두어도 충분히 어길 수 있다는 생각이 든다.
AI는 인간에게 이로운 점도 있으나 무작정 이롭다고만 보기엔 한계점이 분명히 존재한다. 우리가 가진 숙제는 앞으로 이러한 점들을 보완해 나가는 것이 아닐까 생각한다.