생성형 AI는 보조적인 도구 ... 올바른 사용법과 윤리적인 책임으로 건전한 활용 필요
상태바
생성형 AI는 보조적인 도구 ... 올바른 사용법과 윤리적인 책임으로 건전한 활용 필요
  • 취재기자 노영림
  • 승인 2024.09.30 18:07
  • 댓글 0
이 기사를 공유합니다

생성형 AI ‘뤼튼’ 일반인, 대학생, 취준생 사이에서 확산
대학생 과제 활용 시 학습력, 사고력 저하...교수자의 수업권 침해 문제점 증가
생성형 AI 사용 시 명확한 출처 표기, 자료의 사실 여부 확인, 생성형 AI의 한계 인식 필요

취업 준비, 공모전, 과제를 위해 많은 사람들이 생성형 AI를 활용하고 있다. 생성형 AI는 기계 학습 알고리즘을 활용하여 새로운 데이터나 콘텐츠를 생성하는 인공 지능을 한 분야로서 다양한 산업 분야에서도 활용된다.

빠른 속도, 많은 데이터, 필요 분야에 따른 맞춤형 서비스가 제공되는 생성형 AI는 대표적으로 ‘챗 GPT’ 가 알려져 있다. 최근에는 한국의 교육 문화를 최적화하여 서비스를 제공하는 ‘뤼튼’이 생성형 AI 시장에서 강세를 보이고 있다.

뤼튼은 누구나 쉽게 접할 수 있는 네이버 블로그 포스팅, 취업준비생들의 걱정 요소인 자기소개서를 작성하는 것에 있어 유용한 기능들을 갖추고 있고 모든 기능이 무료라는 점에서 큰 인기를 끌고 있다.

생성형 AI '뤼튼'의 홈 화면이다.(사진:뤼튼 홈페이지 캡처).
생성형 AI '뤼튼'의 홈 화면(사진: 뤼튼 홈페이지 캡처).

다양한 계층 이용자 중에서 대학생이 뤼튼을 활용할 경우 강의 자료를 넣고 분량을 정한 후 AI가 생성한 주제 및 구조를 선택하면 레포트가 바로 해결된다. 이처럼 편리성이 높아 20대 사용자가 가장 많다. 그러나 이용자의 학습력, 사고력 저하 또는 교수자의 수업권 침해가 우려된다. 따라서 이를 그대로 제출하는 일은 방지해야 한다.

생성형 AI의 활용은 창작의 새로운 도구로서 순기능을 보여주지만, 생성형 AI가 만든 콘텐츠는 저작권 침해 문제를 불러일으킬 수 있어 주의가 필요하다. 대부분의 국가에서 “AI가 만들어 낸 것은 인간의 창작물로 보기 어렵다”라는 이유로 생성형 AI의 저작권법이 따로 인정되지 않는다. 하지만 생성형 AI의 원리는 결국 누군가가 이미 만든 저작물의 특징을 결합하여 유사하게 보이는 결과물을 만드는 도구이기에 이에 대해 올바른 인식이 필요하다.

생성형 AI가 작성하여 만들어진 콘텐츠라는 것을 명확히 출처 표기해야 저작권에 어긋나지 않는다. 생성형 AI의 활용은 저작권 문제뿐 아니라 개인정보(기업기밀) 유출, 허위 조작 정보, 정보 편향, 오남용 등 우려 사항을 이용자들이 필수적으로 인지한 후 고려해야 한다. 이 외에도 타인의 권리 침해, 특정 인물 명예훼손, 혐오 표현, 환각 현상 등의 문제점도 발생할 수 있어 주의가 필요하다.

방송통신위원회와 한국지능정보사회진흥원(NIA)의 ‘생성형 AI 윤리 가이드북’에 따르면, 명확한 출처 표기, 자료의 사실 여부 확인, 생성형 AI의 한계를 인식하는 것이 잠재적 사회문제로 퍼지지 않기 위해서 이용자 개인의 문제점 인지와 대응이 필수적인 요소인 것을 알 수 있다.

‘생성형 AI 윤리 가이드북’의 실제 사례 기반 Q&A 지침서 (사진:디지털윤리 ‘생성형AI 윤리’ 카드뉴스 캡처).
‘생성형 AI 윤리 가이드북’의 실제 사례 기반 Q&A 지침서 (사진: 디지털윤리 ‘생성형AI 윤리’ 카드뉴스 캡처).

‘생성형 AI 윤리 가이드북’에 따라 생성형 AI를 올바르게 이용하는 법은 다음과 같다. 생성형 AI로 정보를 얻을 때 개인정보, 기업기밀이 제공되지 않았는지를 확인해야 한다. 사용하는 작은 단어 하나로도 답이 달라지는 생성형 AI의 특성상 가짜뉴스를 생성하지 않게 부정확한 정보나 조작된 내용을 일부러 입력하여 허위로 조작된 정보를 만들어서는 안 된다.

생성형 AI가 결과값으로 도출한 정보의 내용이 한쪽으로 치우친 편향된 정보가 아닌지를 확인해야 한다. 이를 알아내기 위해서는 어떻게 자료가 수집됐는지, 특정 내용은 왜 포함이 됐는지, 전체 주장의 핵심이 무엇인지를 다양한 질문을 건네 사실 여부를 확인할 수 있다.

또한 생성형 AI의 사용이 오남용되지 않도록 주의가 필요하다. 생활 속에서 보조적인 수단으로 활용되는 생성형 AI가 딥페이크와 같은 문제로 확산되지 않게 윤리적으로 활용할 필요성이 있다.

이 외에도 타인의 권리가 침해될 수 있는 텍스트, 오디오, 이미지 등이 사용되지 않았는지를 확인하며, 특정인의 명예가 훼손되거나 차별하는 내용이 포함된 것은 없는지를 확인할 필요가 있다. 생성형 AI가 제시한 정보가 개인, 기관 등 특정 대상에 대해 일방적인 혐오 표현을 쓰진 않았는지도 확인해야 한다. 마지막으로 편리함에 따라 생활 속에서 생성형 AI를 활용할 때 문해력, 문제해결력이 저해되지 않도록 과잉 의존하지 않아야 한다.

생성형 AI 기술은 명확한 표준 원칙이 법적으로 마련된 것이 아니기에 계속하여 발전되고 있는 생성형 AI를 올바르게 사용하기 위해서 지속적인 관찰과 사회문제로 대두되지 않도록 개인의 윤리적인 책임을 다하는 것이 당연하게 여겨지는 문화가 만들어져야 한다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.