'창과 방패' 다 만드는 오픈AI … 챗GPT 판별기술까지 내놔
인간 수준의 글쓰는 챗GPT
학생들 숙제 대신 해주거나
스팸메일 등 악용논란 커져
AI 작성 확률 5단계로 판별
아직 정확도는 26% 수준
저작권문제 피하기 포석
사진 확대
글로벌 빅테크 업계에 지각변동을 몰고 온 인공지능(AI) 챗봇 '챗GPT'를 만든 오픈AI가 인공지능이 쓴 글인지 아닌지 판별해주는 서비스를 내놨다.
챗GPT가 학생들 숙제를 대신하거나 인터넷에서 스팸메일을 만드는 데 쓰일 수 있다는 비판이 나오고 저작권 문제가 커질 가능성이 보이자 직접 이를 감지하는 수단을 내놓은 것이다. 챗GPT는 광범위한 분야의 논문과 과제를 높은 수준에서 작성하고 연설문도 쓰면서 전 세계적으로 돌풍을 몰고 왔다.
지난달 31일(현지시간) 오픈AI는 자사 홈페이지를 통해 'AI가 작성한 글 판별자(Classifier)'를 공개했다. 이 판별자는 같은 주제에 대해 'AI가 쓴 글'과 '인간이 쓴 글'을 가지고 기존에 오픈AI가 보유한 언어 모델을 파인튜닝(세부학습)시켜서 만들어낸 AI다. 챗GPT가 글을 작성하고 대화하는 것에 특화된 AI라면 이 판별자는 AI가 쓴 글을 찾아내는 데 특화된 AI다. 글을 제출하면 AI가 작성했을 확률을 '매우 낮음' '낮음' '명확하지 않음' '약간 있음' '꽤 있음'의 다섯 단계로 판별해준다. 다만 1000자 이상의 글이어야 판단할 수 있다.
매일경제가 챗GPT로 작성한 글을 직접 판별자에 넣어보자 'AI가 작성했을 확률이 꽤 있음'이라는 답이 나왔다. 반대로 인터넷의 다른 글을 입력해보자 '매우 낮음'이라는 답이 나왔다.
오픈AI는 "영어로 된 글을 판별할 때 AI가 쓴 글에 대해 'AI가 작성했을 확률이 꽤 있음'으로 답하는 경우가 26%이고, 사람이 쓴 글을 'AI가 작성한 글'이라고 잘못 답하는 확률은 9%"라면서 아직은 불완전한 툴이라고 설명했다.
챗GPT가 이렇게 AI 작성 감지 툴을 공개한 것은 챗GPT를 활용한 글이 인터넷에 범람할 것이라는 우려 때문이다. 실제로 챗GPT를 사용해 광고성 글을 쓰는 법이 인터넷에서 공유되고 있고, 교육 현장에서는 챗GPT로 과제를 작성해 제출하는 것을 금지하고 있다. 오픈AI가 판별자를 내놓기 이전에 이미 제로GPT, 디텍트GPT 같은 AI 작성 글 감지 서비스가 나오기도 했다.
오픈AI는 지난달 11일 '언어 모델을 활용한 허위정보 캠페인에 대한 우려'라는 연구 보고서를 발표했다. 여기에는 오픈AI 연구자들과 조지타운대, 스탠퍼드대의 인터넷 연구소가 참여했다. 이 같은 보고서는 AI 등장 이후 벌어질 각종 윤리적인 비난을 사전에 대응하기 위한 목적으로 나왔다.
또 저작권 문제를 피하기 위한 목적도 있다. 현재 AI를 사용해 만들어진 글이나 그림을 비롯한 콘텐츠는 명확한 저작권을 인정받지 못하고 있다. 그러나 이것이 AI로 제작됐다는 것을 숨기고 저작권을 인정받는 일도 가능하다. 이러한 문제 때문에 어떤 그림이나 글이 AI로 만들어진 것인지 식별하는 일이 반드시 필요하다. 오픈AI가 저작권 보호에 소홀했다는 비판을 막기 위해서라도 직접 이를 식별하는 수단을 내놓은 것이다.
AI를 사용해 콘텐츠를 만드는 기업이 반대로 AI로 만들어진 콘텐츠를 식별해내는 일은 점점 많아지고 있다. AI로 생성해내는 원리를 알고 있으면 반대로 이를 식별해내는 것도 쉽기 때문이다. AI를 만드는 회사가 '창'(AI 생성 콘텐츠)과 '방패'(AI 생성 콘텐츠 감지 툴)를 둘 다 만든다는 얘기가 나오는 이유다. 양쪽 기술을 모두 판매할 수 있는 것이다.
딥미디어라는 미국 AI 회사는 영상에 사람 목소리를 딥페이크로 만들어내서 더빙하는 '덥싱크'라는 기술을 가지고 있는데, 반대로 딥페이크로 만들어진 목소리를 식별해내는 서비스까지 제공하고 있다.
오픈AI는 AI 작성 감지 툴 제작 외에도 사용자 피드백을 받아서 빠르게 챗GPT 성능을 개선해나가고 있다. 오픈AI는 지난달 30일 홈페이지를 통해서 '팩트 판별능력과 계산능력'을 개선했다고 공지했다. 언어 모델의 특성상 복잡한 계산에는 오답을 내놓는 일이 많았는데 이를 개선한 것이다.
[이덕주 기자]
인간 수준의 글쓰는 챗GPT
학생들 숙제 대신 해주거나
스팸메일 등 악용논란 커져
AI 작성 확률 5단계로 판별
아직 정확도는 26% 수준
저작권문제 피하기 포석
챗GPT가 학생들 숙제를 대신하거나 인터넷에서 스팸메일을 만드는 데 쓰일 수 있다는 비판이 나오고 저작권 문제가 커질 가능성이 보이자 직접 이를 감지하는 수단을 내놓은 것이다. 챗GPT는 광범위한 분야의 논문과 과제를 높은 수준에서 작성하고 연설문도 쓰면서 전 세계적으로 돌풍을 몰고 왔다.
지난달 31일(현지시간) 오픈AI는 자사 홈페이지를 통해 'AI가 작성한 글 판별자(Classifier)'를 공개했다. 이 판별자는 같은 주제에 대해 'AI가 쓴 글'과 '인간이 쓴 글'을 가지고 기존에 오픈AI가 보유한 언어 모델을 파인튜닝(세부학습)시켜서 만들어낸 AI다. 챗GPT가 글을 작성하고 대화하는 것에 특화된 AI라면 이 판별자는 AI가 쓴 글을 찾아내는 데 특화된 AI다. 글을 제출하면 AI가 작성했을 확률을 '매우 낮음' '낮음' '명확하지 않음' '약간 있음' '꽤 있음'의 다섯 단계로 판별해준다. 다만 1000자 이상의 글이어야 판단할 수 있다.
매일경제가 챗GPT로 작성한 글을 직접 판별자에 넣어보자 'AI가 작성했을 확률이 꽤 있음'이라는 답이 나왔다. 반대로 인터넷의 다른 글을 입력해보자 '매우 낮음'이라는 답이 나왔다.
오픈AI는 "영어로 된 글을 판별할 때 AI가 쓴 글에 대해 'AI가 작성했을 확률이 꽤 있음'으로 답하는 경우가 26%이고, 사람이 쓴 글을 'AI가 작성한 글'이라고 잘못 답하는 확률은 9%"라면서 아직은 불완전한 툴이라고 설명했다.
챗GPT가 이렇게 AI 작성 감지 툴을 공개한 것은 챗GPT를 활용한 글이 인터넷에 범람할 것이라는 우려 때문이다. 실제로 챗GPT를 사용해 광고성 글을 쓰는 법이 인터넷에서 공유되고 있고, 교육 현장에서는 챗GPT로 과제를 작성해 제출하는 것을 금지하고 있다. 오픈AI가 판별자를 내놓기 이전에 이미 제로GPT, 디텍트GPT 같은 AI 작성 글 감지 서비스가 나오기도 했다.
오픈AI는 지난달 11일 '언어 모델을 활용한 허위정보 캠페인에 대한 우려'라는 연구 보고서를 발표했다. 여기에는 오픈AI 연구자들과 조지타운대, 스탠퍼드대의 인터넷 연구소가 참여했다. 이 같은 보고서는 AI 등장 이후 벌어질 각종 윤리적인 비난을 사전에 대응하기 위한 목적으로 나왔다.
또 저작권 문제를 피하기 위한 목적도 있다. 현재 AI를 사용해 만들어진 글이나 그림을 비롯한 콘텐츠는 명확한 저작권을 인정받지 못하고 있다. 그러나 이것이 AI로 제작됐다는 것을 숨기고 저작권을 인정받는 일도 가능하다. 이러한 문제 때문에 어떤 그림이나 글이 AI로 만들어진 것인지 식별하는 일이 반드시 필요하다. 오픈AI가 저작권 보호에 소홀했다는 비판을 막기 위해서라도 직접 이를 식별하는 수단을 내놓은 것이다.
AI를 사용해 콘텐츠를 만드는 기업이 반대로 AI로 만들어진 콘텐츠를 식별해내는 일은 점점 많아지고 있다. AI로 생성해내는 원리를 알고 있으면 반대로 이를 식별해내는 것도 쉽기 때문이다. AI를 만드는 회사가 '창'(AI 생성 콘텐츠)과 '방패'(AI 생성 콘텐츠 감지 툴)를 둘 다 만든다는 얘기가 나오는 이유다. 양쪽 기술을 모두 판매할 수 있는 것이다.
딥미디어라는 미국 AI 회사는 영상에 사람 목소리를 딥페이크로 만들어내서 더빙하는 '덥싱크'라는 기술을 가지고 있는데, 반대로 딥페이크로 만들어진 목소리를 식별해내는 서비스까지 제공하고 있다.
오픈AI는 AI 작성 감지 툴 제작 외에도 사용자 피드백을 받아서 빠르게 챗GPT 성능을 개선해나가고 있다. 오픈AI는 지난달 30일 홈페이지를 통해서 '팩트 판별능력과 계산능력'을 개선했다고 공지했다. 언어 모델의 특성상 복잡한 계산에는 오답을 내놓는 일이 많았는데 이를 개선한 것이다.
[이덕주 기자]