김명주 | 서울여자대학교 정보보호학과 교수
ISSUE
챗GPT가
가져다준 빛과 어둠

2023년 상반기는 “챗GPT”의 시대이었다고 해도 과언이 아니다. 2022년 11월 30일 공식 오픈한 지 5일 만에 이용자 100만 명을 넘어섰고 2달 만에 1억 명을 넘어섰다. 이런 열풍은 역사상 처음이었다. 유료 서비스인 “챗GPT 플러스”도 생각보다 많은 이용자를 전 세계적으로 확보해갔다. 식지 않은 열풍 속에서 주마가편 격으로 3월 14일 전격 단행한 4.0으로의 버전 업그레이드는 유료 서비스의 차별화와 가속화를 재촉하였다. 국내에서만 해도 소개된 지 불과 몇 달 만에 챗GPT에 관한 수백 권의 책들이 서점에 넘쳐났다. 이 중에는 챗GPT를 저자 혹은 공저자로 하는 책들을 발견하는 것도 더 이상 어렵지 않게 되었다.

챗GPT가 가져온 변화, ··· 구글 독점 구도에 큰 위협으로 부상
챗GPT의 등장은 그동안 글로벌 검색엔진 시장의 92.9%를 차지해 온 구글에게는 큰 위협이 되었다. 지금까지는 검색엔진을 통해서 어떤 주제에 관하여 먼저 검색한 후 이를 통해서 얻은 수많은 검색 결과물들을 상당한 시간 읽으면서 그 내용을 소화해야 했다. 그러고 나서야 자신의 의견을 종합하여 제시할 수 있었던 기존의 긴 과정을 챗GPT는 엄청나게 단축해 주었다. 고작 3%의 비율로 검색엔진 시장 2위를 차지해 왔던 마이크로소프트사는 자신이 이미 투자해 온 챗GPT에게 100억 달러(12조 5천억 원)을 추가로 투자했다. 검색엔진 1%가 일 년에 광고 수익 10억 달러(2조 5천억 원)를 좌우하는 상황을 감안할 때, 100억 달러라는 투자는 큰 무리가 아니다. 챗GPT를 담아낸 마이크로소프트사의 검색엔진 빙(Bing)은 덕분에 큰 상승세를 타고 있다.

챗GPT가 가져온 변화, ··· 인공지능 리터러시
챗GPT는 예상보다 뛰어난 글 생성 능력 때문에 등장 초기부터 여러 잡음을 불러일으켰다. 고등학교와 대학교 학생들이 글쓰기 성격의 과제를 수행할 때 챗GPT를 활용하는 바람에 교육의 목적이 달성되지 않을 뿐 아니라 공정한 과제 평가도 이루어질 수 없게 된 것이다. 그래서 미국의 일부 주에서는 학교에서의 챗GPT 사용을 금지했다. 챗GPT를 제작한 OpenAI 기업은 이러한 문제해결에 도움이 될 수 있는 도구로서 “인공지능 문서 분류기(AI Text Classifier)”를 공개하기도 했다. 주어진 글이 인공지능이 생성한 것인지, 아니면 사람이 쓴 글인지를 이 도구는 판단해준다. 비록 이 도구의 정확도가 현재로서는 26% 정도에 불과하지만 일선 학교에 이를 활용할 경우, 충분한 견제 도구가 될 수 있다. 다만 이런 도구를 활용하여 학생들을 강제하기보다는 챗GPT 시대를 맞이하여 학생들이 새롭게 갖추어야 할 학습 윤리에 대한 공감대 형성이 더 바람직해 보인다. 이를 “인공지능 리터러시”(AI Literacy)라는 표현 안에 담는 중이다.
챗GPT가 가져온 변화, ··· 개인정보 유출에 대한 우려
챗GPT가 4.0으로 전격적인 버전 업그레이드를 선언하고 불과 1주일이 지난 3월 20일. 유료 사용자의 신용카드 결재 정보 일부가 외부에 유출되었다는 나쁜 소식이 들려왔다. 그리고 이와 더불어 챗GPT와의 대화 목록이 사용자들 간에 섞여서 나타나는 오류가 발생했다. 불행 중 다행으로 타인의 대화 목록만 보이지 대화 내용까지는 보이지 않았다. 만일 타인의 대화 내용까지 노출되었다면 개인정보와 사생활 정보 유출, 명예훼손, 기업비밀 유출 등으로 인하여 소송 폭탄을 맞아 챗GPT는 매우 심각한 위기에 봉착했을 것이다. OpenAI의 대표 샘 알트만은 그날 자신의 트위터에서 “매우 끔찍한 상황”이었다고 고백했을 정도이다. 그런데 샘 알트만은 이날 9시간가량 지속된 오류가 챗GPT의 대화 목록을 유지하는 부분을 자신들이 잘못 코딩해서 발생한 것이 아니라, 외부에서 제공하는 오픈 소스 라이브러리의 오류 때문이었다고 밝혀서 다른 차원의 충격을 주었다. 이는 챗GPT의 대화 목록 제공 부분이 오픈 소스로 구현되었다는 뜻이며 이 오픈 소스를 본인들이 잘 통제하지 못했다는 이야기이다. 이것은 오픈 소스의 취약점을 집중적으로 활용하여 공격하는 해커들에게 앞으로도 큰 관심을 끌어낼 만한 ‘어리석은’ 멘트였다. 한번 발생한 보안사고는 해당 근원지를 바꾸지 않는 이상 다시 발생할 가능성이 크다. 그래서 앞으로 우리는 챗GPT를 사용할 때 대화 내용 중에 개인정보와 은밀한 사생활, 회사의 주요 기밀을 언급하지 않는 것이 필요하다. 혹시나 불가피하게 이를 언급해서 챗GPT의 답변을 들었다면, 이 대화 내용을 별도로 보관한 후 대화 목록에서는 삭제하는 것이 좋다. 이미 발생한 잠재적 보안취약점이 챗GPT의 사용환경에 여전히 존재할 수 있으며, 대화 목록에 실린 내용 모두는 물리적으로 챗GPT 서버로 일단 유출되어 저장된다는 점도 기억해야 한다.
챗GPT가 가져온 변화, ··· 오토 프로파일링의 위험
이탈리아가 챗GPT에 대한 국가적 사용 중단을 결정한 것은 그로부터 10일 뒤인 3월 30일이다. 이러한 결정의 이유는 GDPR이라 불리는 유럽연합의 개인정보 보호법을 위반했다는 의구심 때문이다. 이러한 의구심은 챗GPT가 특정인에 대해 놀라운 정보 학습력을 기반으로 프로파일 작성 능력을 보여줄 때부터 시작되었다. 유럽연합의 개인정보 보호법은 본인에게 사전 승낙받지 않은 경우, 그 개인에 대한 프로파일을 자동으로 생성하는 “오토 프로파일링” 행위를 금지하고 있다. 개인이 자신의 다양한 개인정보들을 인터넷상에 이미 공개하여 여기저기 올렸다고 하더라도 각각은 고유의 공개 목적이 있을 터인데, 이러한 개인정보들을 모두 가져와서 개인의 프로파일을 완성해내는 행위는 당초의 공개 목적에 부합하는 행동이 아니라는 것이다.


따라서 이러한 오토 프로파일링을 시도하려면 해당 개인에게 사전에 승인받아야 가능하다. 그런데 챗GPT는 특정한 개인 특히 사회적으로 유명하여 이미 많은 정보가 인터넷에 공개된 인물에 대하여 자연스럽게 프로파일 정보를 자동으로 생성해서 보여준다. 이것은 검색엔진으로 특정 인물을 검색하는 것과는 완전히 다르다. 검색엔진은 특정 인물과 관련된 사이트 정보들을 보여줄 뿐이며 프로파일을 만들어주지는 않는다.
그러나 챗GPT는 자동으로 개인의 프로파일을 만들어준다. 이는 유럽연합의 개인정보 보호법 GDPR 위반에 해당한다. 그리고 우리나라 개인정보 보호법을 역시 위반하는 기능이다.
따라서 OpenAI는 이러한 실정법 위반에 대하여 앞으로 적절한 조치를 해야만 하는데, 가장 손쉬운 방법은 특정 개인에 대한 오토 프로파일링 성격의 질의응답 서비스를 제한하는 것이다. 챗GPT 때문에 오토 프로파일링을 불법에서 합법으로 바꾸는 개인정보보호법 개정을 모든 국가가 함께 진행할 수는 없기 때문이다.
챗GPT가 가져온 변화, ··· 할루시네이션
현재의 챗GPT는 2021년 9월까지 획득한 데이터를 대상으로 학습을 진행하였다. 그러다 보니 그 이후에 생성된 데이터와 사실에 대해서는 학습하지 못했기 때문에 이에 관한 질문을 받으면 사실에 기반한 답을 생성해낼 수 없다. 그렇다고 챗GPT가 “죄송합니다. 저는 모릅니다”라고 답하지 않는다. 외형상 거침없이 어떤 답변이라도 생성해낸다. 심지어 이미 학습한 데이터에 대해서도 사실이 아닌 내용을 사실과 섞어가면서 글을 생성하기도 한다. 이러한 챗GPT의 답변을 가만히 듣고 있으면 이용자도 순간적으로 챗GPT의 대답이 사실인 것처럼 속아 넘어갈 수 있다. 이를 “환각” 영어로는 “할루시네이션(Hallucination)”이라고 부른다. 4.0으로 버전이 업그레이드되었지만 이러한 할루시네이션 현상은 여전히 나타난다. 지금은 메타라 불리는 페이스북에서 인공지능 연구를 총괄해 온 얀 르쿤 박사는 챗GPT의 이러한 할루시네이션 현상은 태생적으로 불가피한 것이라고 주장했다.
정보를 검증할 수 있는 비판적 사고가 필요
심지어 OpenAI의 대표 샘 알트만 역시 같은 이야기를 했다. “인간이 불완전하기 때문에 챗GPT와 같은 인공지능도 완벽할 수 없다”. 사실 챗GPT의 사업책임자로서 이런 식의 말을 하는 것 자체가 부적절하다. 그렇지만 이 발언은 챗GPT의 피할 수 없는 약점을 시인한 셈이다. 따라서 챗GPT의 사용에 따른 책임은 사업자와 개발자로부터 이제는 이용자로 온전히 넘어온 셈이다. 앞으로 챗GPT 이용자들은 아주 유능한 챗GPT를 사용할 때마다 챗GPT에 대한 경계심과 비판적 사고도 놓치지 말아야 한다. 챗GPT가 생성한 답변이 정말 사실에 근거하고 있는지 바로 판단할 수 있을 실력을 평소에 갖추든지 아니면 추가로 검색엔진을 통해서 확인 검증하는 작업을 꼭 해야 한다는 뜻이다. 챗GPT는 활용 효과가 매우 큰 기술인지라 우려와 두려움 역시 매우 큰 것이 사실이다.
