
최근 인공지능 기술의 발전으로 인해 최근 대화형 AI 기술인 챗 GPT가 주목을 받고 있다. 챗 GPT는 OpenAI에서 개발한 인공신경망 모델로, 인간처럼 대화를 나눌 수 있는 기술을 지니고 있어 인공지능 분야에서 큰 관심을 받고 있다. 최근에는 챗 GPT가 인공지능 시장에서 큰 파장을 일으키며 기업들이 이를 활용한 서비스를 출시하고 있는 가운데, 더욱 많은 이들이 챗 GPT의 발전과 활용에 관해 이야기하고 있다. 최근 챗 GPT의 발전으로 인해 ▲자연어 이해와 생성 분야 ▲콘텐츠 생성 분야 ▲자동화 분야 ▲교육 분야 ▲의료 분야 등 다양한 분야에서 유망한 발전이 예상된다.
앞선 기사의 서론은 챗GPT가 스스로 작성한 기사를 그대로 가져온 것이다. 과학기술의 발전으로 인해 인간의 영역이라고 여겼던 글을 창조하는 분야도 인공지능이 학습해 가능한 시대가 도래했다. 챗GPT는 인간의 능력과 구분할 수 없을 정도로 발전된 모습을 보인다. 이처럼 챗GPT가 현재 논란의 도마 위에 올라서며 각종 언론과 전문계에서의 뜨거운 화제로 올라섰다.
챗GPT란?
챗GPT는 OpenAI가 개발한 대화 전문 인공지능 챗봇으로, 챗은 채팅의 줄임말이고 GPT는 ‘Generated Pre-trained Transformer’의 앞 글자를 딴 것이다. 챗GPT는 사용자가 대화창에 텍스트를 입력하면 그에 맞춰 대화를 함께 나누는 서비스로, 공개 단 5일 만에 하루 이용자가 100만 명을 돌파하면서 돌풍을 일으키기 시작했다. 특히 질문에 대한 답변은 물론 ▲논문 작성 ▲번역 ▲노래 작사·작곡 ▲코딩 작업 등 광범위한 분야의 업무 수행까지 가능하다는 점에서 기존 AI와는 확연히 다른 모습을 보인다. 특히 챗GPT는 대규모로 언어 데이터를 이용해 학습하기 때문에 새로운 문제 상황에서도 정확한 예측을 수행할 수 있고, 전이 학습이 가능해 이전에 학습한 지식을 새로운 문제에 적용해 빠르게 학습할 수 있다는 특징이 존재한다.
챗GPT,
출시 이후의 논란
챗GPT는 빠르게 원하는 답을 묻기만 하면 제공해준다는 점과 대화가 가능하다는 점에서 사람들의 시선을 끌었다. 그러나 유용해 보이는 챗GPT 또한 다양한 논란을 발생시켰다. 가장 먼저 대학가에서의 예시가 존재하는데 대학 커뮤니티 앱 ‘에브리타임’에서 쉽게 챗GPT에 대한 게시글을 찾아볼 수 있다. 이에 대학생 커뮤니티 에브리타임에서는 “챗GPT를 이용해 과제를 작성해 제출한다면 과연 누구의 과제를 표절한 것인가?”라는 논제도 등장하면서 많은 학생의 관심이 챗GPT에 쏠려 있다는 점을 알 수 있다.
챗GPT의 능력을 활용해 과제를 제출했던 학생들의 적발 사례 또한 많아지고 있다. 기존의 표절 검사 프로그램을 모두 통과하고 챗GPT가 작성한 글을 식별하기 위한 탐지 서비스를 내놓았으나 아직 AI가 작성한 텍스트를 확실하게 판별하지 못하고 있다. 이에 챗GPT를 활용한 학생 지도 시스템을 도입하자는 의견이 나오고 있으나 우려와 반대 의견이 많다.
먼저 챗GPT가 제공하는 답변만 기억하게 돼 개념을 이해하고 응용하는 능력이 부족해질 수 있다는 의견이 있다. 챗GPT를 활용해 학습하게 되면 학생들이 질문하고 답을 구한 내용이 저장되는데 이러한 데이터 활용과 보호에 대한 개인정보 보호 문제 또한 해결해야 한다는 의견이 존재한다.
두 번째로 각종 전문직 계열에서의 논란을 발생시켰다. 몇 년 전만 해도 작가나 화가 등과 같이 창의력을 발휘해야 하는 직업군과 오랜 기간 공부해야 해서 전문성을 지녀야 하는 직업군은 인공지능에 대체되지 않을 수도 있다는 의견이 존재했다. 그러나 장기간 공부해 시험을 봐야 합격할 수 있는 시험들에서 챗GPT가 선전하고 있다.
특히 챗GPT는 경영학 석사학위 과정을 취득하는 MBA 시험에서 평균 이상인 B를 받고 의사 면허 시험에서 50% 이상의 정확도를 기록했다. 이에 단순노동에서 벗어난 창의력과 정확성을 기반으로 하는 사무직과 전문직 자리인 화이트칼라 일자리 또한 AI로 대체될 가능성이 있다는 의견이 있다.
세 번째로 거짓 정보를 학습할 수 있다는 점을 들 수 있다. 챗GPT와 같이 알고리즘으로 ▲글 ▲그림 ▲영상 등을 생성해내는 기술을 생성 AI라고 하는데, 이러한 생성 AI가 거짓 정보를 학습할 수 있다는 점이 문제로 꼽힌다. 생성 AI가 가진 고질적인 문제이기도 한데 무엇이 잘못된 정보인지 판단할 수 없기 때문에 잘못된 결과물을 도출해 낼 수 있다는 점을 문제점으로 꼽는다.
챗GPT 도입을 고려 중인 대학가에서도 이러한 점이 문제가 될 수 있다. 챗GPT는 언어를 처리하는 일종의 모델이기 때문에 문맥과 상황을 정확하게 파악하지 못하는 경우 오답을 제공할 가능성이 매우 높다. 특히 학생들이 어려움을 느끼는 문제의 경우 정확한 답변이 필요한 상황에서 오답을 제공하면 학생들의 학습에 오히려 방해될 수 있다는 의견이 존재한다.
마지막으로 챗GPT 서비스 개시를 위한 노동력과 관련된 점이다. 챗GPT가 능숙하게 텍스트를 생산할 수 있으려면 부정적인 언어의 분류가 필요해진다. 챗GPT는 말 그대로 일상적 활용을 목적으로 만들어진 챗봇이기에 인터넷상의 부정적 경향의 언어 뭉치를 학습해서는 안 됐다. 독성을 제거하기 위해 오히려 독성 텍스트만을 따로 학습한 인공지능이 별도로 필요로 해 인간은 민감한 내용을 직접 분류하고 정리했다. 챗GPT 서비스 개시를 위해 노동자들은 ▲성적 아동 학대 ▲살인 ▲고문 ▲자살 ▲근친상간 등의 상세한 묘사가 담긴 텍스트를 읽는 일을 맡았고 이는 충분히 일상생활에 지장이 있을 정도로 정신적 충격을 줄 수 있다.
특히 데이터 처리 회사 SAMA의 경우 케냐와 같은 개발도상국 노동자들을 고용해 진행하고 있다. 시간당 우리 돈 1,600원에서 2,400원 정도의 임금을 받았는데 매우 저렴한 수당으로 생활을 유지하기 어려운 금액이다. 또한, 보안상의 이유로 개인정보나 기업 정보와 같은 중요한 데이터를 처리할 때 노동자들의 개인정보와 안전이 보장되지 않을 수도 있다는 점에서 노동조건의 열악함과 관련해 논란이 커졌다.
챗GPT와의 상생
각종 챗 서비스의 등장과 성행은 아직 주입식 교육이 이뤄지고 있는 우리나라에서 유독 크게 타격을 입을 것이라는 말이 많다. 단순하게 답을 구하는 것은 인공지능에 비해 인간으로서 뒤처질 수밖에 없다. 그렇기에 해답을 찾는 것 외에 이러한 AI를 이용해 답을 찾을 방법에 대해 더 고민해보고 공부하는 등 방법에 대해서도 더 집중하는 과정이 필요해 보인다.
오경은 기자