책들의 우주/비즈

신뢰할 수 있는 인공지능, 한상기

지하련 2025. 1. 28. 06:18

 

 

 

신뢰할 수 있는 인공지능

한상기(지음), 클라우드나인

 

 

이 책으로 인공지능 연구자들이 알고리듬, 모델, 시스템에 관한 연구 외에도 인공지능의 발전을 위한 다양한 연구 과제가 있다는 것을 알게 되길 기대한다. 또한 인공지능과 사회 문제를 연구하는 다양한 학자들이 다루는 주제나 문제점 해결 방안이 기술적으로 얼마나 어려운 과제인지, 문제해결을 위해 어떤 기술이 필요한지를 이해할 수 있기를 바란다. (11쪽) 

 

인공지능(AI)의 발전 속도는 현기증이 날 정도다. 너무 빠르다. 인공지능에 대해서 우호적이었던 이들까지도 이 발달 속도 앞에서 염려하기 시작했다. 하지만 사람들은 ChatGPT와 같은 채팅 기반의 서비스나, 특정 업무를 지원하기 위한 여러 생산성 도구들 위주로만 관심을 가지는 듯하다. 확실히 편리하다. 영어 단어를 찾을 때도 ChatGPT를 사용하는 것이 더 나을 정도다. 간단한 번역이나 궁금한 내용을 물어보면 바로바로 답을 해준다. 잘못된 코딩도 고쳐주고 어려운 질문에 대해서도 답을 즉각즉각 해준다. 그런데 이런 장점으로 인해 우리들은 인공지능의 본질적인 측면을 간과하고 있는 건 아닐까. 우리의 일상을 치명적으로 변화시킬 지도 모르는데 말이다.  

 

자율주행이나 의료 진단, 치료 방식 제안의 경우 인공지능이 제시하는 결정이 윤리적으로 올바르고 사회적으로 용납될 수 있을 것인가 하는 딜레마에 빠질 수도 있다. 인공지능 자체에 여러 가지 취약점이 있다는 것이 밝혀지면서 해킹 가능성이나 오류 발생의 문제가 사회 구성원 전체에 끼칠 영향이 적지 않음을 인식하게 됐다. (7쪽) 

 

인공지능은 이제 모든 시스템과 디바이스에 장착될 것이다. 최근에 나오기 시작한 '온 디바이스 AI(On-Device AI)'은 디바이스 내에서 적용된 자체적인 인공지능으로 구동된다. 그리고 하나 둘 우리는 천천히, 혹은 매우 빨리  인공지능에게 모든 것을 맡길 지도 모른다. 가끔 테슬라의 자율주행 모드에서 사고가 나는 것처럼, 우리는 두 손을 핸들에서 떼고 눈을 감고 잠을 잘 것이다. 인공지능은 우리를 귀찮게 하는 많은 일들을 대신하게 되겠지만, 그것에 대해서 책임을 지지 않을 것이며, 그 결정이나 행동이 어떤 도덕적, 윤리적 근거를 가지고 있는지 알지 못한다. 그런데 자율적 시스템이 관리되지 않는 영역으로 나왔을 때는 어떻게 할 것인가. 이 점에서 '인공지능 윤리'은 진지하게 다루어져야 하는 주제지만, 연구되기 시작한 지 얼마 되지 않은 분야다. 

 

인공지능 모델의 편향성은 크게 알고리즘 자체의 편견, 데이터세트에서 온 부정적 유산, 데이터 부족에 의한 과소평가에서 비롯된다. 알고리즘 편견은 인공지능 모델에서 보호하는 특징 feature과 다른 인자 간의 상관관계에서 비롯될 수 있다. (94쪽)

 

우리는 이미 여러 차례 인공지능 서비스가 여러 문제를 일으킨 것을 알고 있다. 인종나 성차별 등에 대해 편향적인 언급을 하는 사례가 기사화되기도 했다. 최근 들어서는 어느 정도 그러한 문제가 잡혀 등장하지 않지만. 그런데 이것은 초기 문제일 뿐이다. 얼마 지나지 않아 모든 시스템이나 서비스가 AI 기반으로 돌아가게 될 것이다. 이럴 때, AI가 제시하는 결과물이 인간이 허용하는 범위를 벗어난다면 어떻게 할 것인가.  

 

구글의 '책임감 있는 인공지능 Responsible AI' 

- 인간 중심의 디자인 접근법을 취한다. 
- 학습과 모니터링을 평가하기 위한 다양한 지표를 확인한다.
- 가능하다면 원천 데이터를 직접 검사한다.
- 데이터세트와 모델의 한계를 파악한다.
- 검사하고, 검사하고, 검사한다. 
- 배포 이후에는 시스템 모니터링과 업데이트를 지속한다. (48쪽) 

 

마이크로소프트의 책임감 있는 인공지능 원칙

1. 공정성 - 인공지능시스템은 모든 사람을 공정하게 대우해야 한다.
2. 포용성 - 모든 사람이 인공지능 시스템에 대해 권한을 갖고 참여할 수 있어야 한다. 
3. 신뢰성과 안전 - 인공지능 시스템은 신뢰할 수 있고 안전하게 과업을 수행해야 한다.
4. 프라이버시와 보안 - 프라이버시를 존중하고 보호해야 한다.
5. 투명성 - 사람들이 인공지능시스템을 파악할 수 있어야 한다.
6. 책임성 - 사람들이 인공지능 시스템에 대해 책임을 져야 한다. (50쪽) 

 

그래서 유럽 연합이나 각 나라의 정부, 글로벌 기업들에서는 인공지능에 대한 가이드라인을 정하고 공표하고 있다. 그것이 지켜질 지, 그리고 지켜질 수 있는지는 우리의 노력과 실천이 뒷받침되어야 할 것이다. 이런 점에서 이 책 <<신뢰할 수 있는 인공지능>>의 의미는 충분하다. 앞에서도 언급했지만, 인공지능이 한 번 나타났다가 우리의 생산성을 급격하게 올려주고 사라질 것이 아니고, 도리어 우리 일상의 많은 부분들을 송두리째 변화시켜 그 전과는 다른 환경을 만들 것이다. 이 점이 너무 명확하기 때문에, 나는 인공지능을 활용해서 뭔가를 하기 전에 인공지능이 인류 사회에 미칠 영향을 따지고 이를 보다 좋은 방향으로 이끌고 나가기 위한 범국가적인 공감대와 실천 노력이 있어야 한다고 믿는다.  

 

공정성 문제는 기업이 가장 예민하게 대응하는 이슈다. 알고리듬이나 데이터 편향으로 유발된 오류가 기업에 대한 이미지와 평판 훼손 소송과 같은 법적 위기만이 아니라 정부에 의해 제재를 받을 수 있는 위험이 크기 때문이다. (107쪽) 

 

인공지능의 자율 에이전트autonomous agent가 사회 규범이나 법과 같은 인간의 행위규칙을 따르도록 해야 한다는 가치 정합 문제는 신뢰할 수 있는 인공지능 구현에서 반드시 연구해야 하는 이슈다. (128쪽) 

 

하지만 이는 쉽지 않다. 그만큼 시간이 오래 걸리는 까다로운 문제다. 더구나 인공지능의 발전 속도는은 우리의 예상을 훨씬 뛰어넘어서, 나 또한 이 발전 속도를 따라가는 것이 힘들다. 매일 새로운 소식이 쏟아진다. 그래서 나는 인공지능의 공정성, 윤리성 등이 더 중요하다고 믿는다. 

 

윤리적 인공지능은 학제적 연구 주제이고 처음으로 공학자와 철학자가 협력해야 하는 분야다. 인간의 윤리체계를 어떻게 학습시키거나 장착할 것인가는 우리의 윤리 체계를 어떻게 정의해야 할 것인가 하는 문제에서 시작하는 것이다. 시간, 장소, 문화에 따른 변화를 어디까지 인정하면서 수정하게 할 것인가 하는 문제 모두 아직은 매우 초보적인 수준이다. (156쪽)

 

이 책이 2021년도에 나왔으나, 초보적인 수준에는 변함이 없는 듯 싶다. 다만 연구 논문이나 관련 논의가 이전보다는 좀 더 풍성해지긴 했다. 

 

2020년 3월 <<포브스>>는 <더욱 투명한 인공지능을 향해>라는 기고문을 통해 인공지능이 투명하지 않은 이유는 다음과 같은 문제에서 비롯된다고 지적했다. 

1. 설명할 수 없는 알고리듬
2. 학습 데이터세트의 가시성 부족 - 데이터를 어디서 모았고 어떻게 정체했으며 어떤 특징을 사용했는지 알 수 없는 경우
3. 데이터 선택 방법의 가시성 부족 - 머신러닝 엔지니어가 전체 학습 데이터에서 어떤 데이터를 선택적으로 사용했는지 알 수 없는 경우
4. 학습 데이터세트 안에 존재하는 편향에 대해 제대로 파악하지 못하는 경우 
5. 모델 버전의 가시성 부족 - 모델을 지속적으로 개선하고 있는 경우, 전에는 잘되던 시스템이 지금은 잘 안 될 때 모델의 어느 부분이 달라졌는지 정확히 모르는 경우 (165쪽 - 166쪽) 

 

딥러닝 기반의 인공 지능 시스템은 블랙박스 시스템이다. 원인이 되는 데이터세트는 명확히 알 수 있으나(이것도 빅데이터라 하나하나 검증하는 것이 쉽지 않지만), 이 데이터세트로 학습한 인공지능이 만드는 결과에 대해서는, 왜 그런 결과가 나왔는지 알지 못한다. 그래서 이를 해결하기 위해 'XAI'라는 걸 개념을 만들긴 했으나, 어느 정도 가능할 뿐이다. 

 

설명할 수 있는 인공지능 XAI. eXplainable Artificial Intelligence은 인공 지능 행위와 의사결정을 사람이 이해할 수 있는 방식으로 그 과정을 해석하거나 결과에 도달한 이유를 알 수 있도록 도와주는 기술을 말한다. 블랙박스 방식의 딥러닝 기술이 가진 문제점을 해결해야만 실제로 응용할 수 있는 경우가 많다. 대표적인 분야가 금융, 행정, 인사 관리 분야이다. (169쪽)  

 

책은 마지막으로 인공지능을 적대적으로 조작하거나 잘못된 결과값을 만들 수 있으며 해킹이 가능하다고 이야기한다. 즉 결코 안전하거나 견고한 시스템이 아니라고 지적하면서 끝난다. 몇 년 전에 나왔다고 하면 최근 책이라고 할 수 있는데, 인공지능 쪽에서는 좀 다른 느낌인 것같다. 저자의 최근 책인 <<AGI의 시대>>에서는 인공지능의 얼라인먼트(Alignment)에 대해서 깊이 있게 논의한다. 어쩌면 이제 본격적으로 인공지능과 인류의 공존에 대해 깊이 있는 논의가 시작된다고 할까.

 

이 책 <<신뢰할 수 있는 인공 지능>>을 다 읽은 다음, 곧바로 <<AGI의 시대>>를 읽었다. 최근 인공지능과 관련된 세미나 발표를 할 기회가 있어 여러 권의 책과 수십 개의 논문을 집중적으로 읽었다. 나는 인문학 배경이라, 기술 이해도가 다소 낮을 지 모르겠으나, 분명한 것은 인공지능은 우리 인류의 새로운 변곡점이 될 것이다. 그리고 여기에 어떻게 대응하고 준비하느냐에 따라 전혀 다른 시대가 펼쳐질 것은 분명해 보인다.