챗GPT로 책을 쓸 수 있다, 만들 수 있다는 글을 종종 보게 된다. 그런데 챗GPT로 책을 쓸 수 있다는 말을 나는 도통 이해하지 못한다. 책을 쓰는 것에는 여러 가지 동기와 목적이 있을 수 있다. 개중(個中)에는 돈을 벌기 위한 목적도 있을 수 있다. 그래도 이상하다. 챗GPT로 책을 쓸 수 있다니.
우선 자신이 알고 있는 내용을 정리해서 다른 사람들에게 알리고자 책을 쓰고자 한다. 자신이 알고 정리한 내용은 다른 사람이 알거나 정리한 내용과는 다를 것이며 어느 부분에서는 차별화되어 있고 독창적일 것임을 믿는 경우 책을 내고자 한다. 반대로 책 출판을 목표로 자신이 알고 있는 것을 정리하기도 한다. 자신이 가지고 있는 아이디어를 바탕으로 자료를 찾고 수집하고 정리하여 원고를 만들어갈 수 있을 것이다.
어쩌면 후자의 방식일 때 챗GPT가 도움이 될 지도 모르겠다. 하지만 (내가 알기로는) 상당히 거짓말에 능한 인공지능 검색 엔진(챗GPT 등등)에게 의지하여 원고를 만든다고? 이건 도대체 무슨 말인가. 아무리 생각해도 이해되지 않는다. 인공지능의 위험은 진위여부가 확인되지 않은 정보들을 여기저기서 수집한 정보들을 모아 그럴싸한 이야기로 구성하였때 만들어진다. 그 잘못된 정보를 바탕으로 인간이 어리석은 판단을 하고 잘못된 결정을 할 때, 어쩌면 우리 문명은 파국의 상황을 마주하게 될 지도 모른다.
내가 너무 진지한 것인지 모르겠으나, 좀 얄팍한 꼼수 좀 부리지 말자. 그리고 현혹되지도 말자. 나는 아직도 디지털 세상(온라인 세상, 사이버 스페이스)를 두고 새로운 유토피아의 도래처럼 떠들어대던 좌파 이론가들이 떠오른다. 그러나 실제적으로는 정보 격차(digital divide)가 있는 불평등한 공간에 가깝다. 유튜브를 보라. 거짓과 가짜가 현혹하는 동영상이 난무한다. 심지어 페이스북은 이를 바탕으로 비즈니스를 한다. 챗GPT로 책을 쓸 수 있다는 글을 보니, 너무 암울해져서 짧게 포스팅해 본다.
**
AI 기반 기술은 단적으로 기술적인 측면에서는 도움이 될 수 있다. OX가 분명한 대규모 처리 기술에 적절하다. 가령 색칠하기라든가 대규모의 더하기 빼기 같은 것. 이는 글쓰기에도 적용할 수 있다. '~입니다'로 종결어미를 자연스럽게 통일한다거나 하는 작업에는 분명히 도움이 될 것이다. 하지만 나머지는 품질이 너무 떨어지거나 거짓 정보로 도배될 것이 분명하다. 마치 <<격암유록>>이 실제로 격암 남사고에 의해 씌여진 책이라고 떠드는 유튜브 동영상들을 보면, 아 이것이 얼마나 사람들에게 퍼질까 하는 생각을 하니, 아찔하기만 하다.
글은 비판적 사고를 하게 하지만, 동영상은 다르다. TV를 바보상자라고 했던 이유는 여기에 있다. 무비판적으로 받아들일 가능성이 현저히 높아지기 때문이다. 광고 속에 특정 이미지를 넣어 판단을 흐리게 하는 서브리미널(Subliminal) 효과처럼 동영상을 통한 프로퍼간다는 정말 위험하다. 인공지능이 챗(chat)을 너머 동영상까지 확장된다면(이건 시간문제이긴 하지만) 그 위험은 더 커질 것이다. 그런데 책을 쓴다고? ... 암울하다. 암울해.