X선생의 과학레시피

본문글자크기
기사의 제목, 출처, 작성일 정보 안내
AI(인공지능)에게 따스한 두뇌를 달아주자한국원자력의학원 RI중개연구팀 조일성2023-03-07

  2016년 3월, AI(인공지능)과 사람의 대결 중 사람은 착잡한 마음을 참지 못하고 담배를 피우러 나갔다. 그 사이, AI는 수를 계산하여 두었고 이를 본 해설자들은 프로의 감각에서는 절대 두지 않는 수 이며 실수 아니냐는 이야기마저 나왔다. 당황한 해설자의 반응에 인공지능 엔지니어들은 점검에 들어갔고 놀라움을 금치 못했다. 그 수는 인간이라면 10,000분의 1 확률로 둘 수 있는 수 였으며, 인공지능의 실수가 아니라 인간이라면 두지 않는 정말 독창적인 수 였다는 것을 알게 되었다. 담배를 태우고 나서 자리로 돌아온 세계 챔피언은 그 수를 보고 깜짝 놀랐고 패배를 인정 할 수 밖에 없었다.

 

  “알파고는 확률적 계산을 하고 이기기 위한 계산을 하는 머신에 불과하다고 생각했는데 그 수(37수)를 보는 순간, 아니구나. 충분히 알파고도 창의적이다. 정말 바둑에 아름다움을 잘 이끌어 내는 굉장히 창의적인 수였다. 그 수를 보고 다시 한번 느끼게 된 것은 "바둑에서 창의성이란 무엇인가?"라는 의문이었다. 굉장히 의미있는 수가 아니 었나” - 이세돌 9단

 

  구글(Google)의 인공지능 알파고(Alpha-Go)가 이세돌을 이긴지 6년이 지났다. 컴퓨터가 인간을 이긴 이 이야기는 한동안 사람들에게 회자되었으며 그 시간만큼이나 인공지능은 진화했고 가장 창조적이라 생각되는 예술의 영역에까지 그 손길을 뻗치고 있다.

 

<이세돌 9당의 대국에 관한 다큐멘터리 영화 알파고의 포스터(왼쪽), OpenAI의 DALI2가 필자의 요구사항인 “극심한 공포로 둘러싸인원숭이를 피카소 스타일로 그려줘”에 대응하여 그린 그림>

 

  ‘DALI2’라는 프로그램은 사람의 요구대로 이를 그림으로 표현하는 프로그램이며 ‘챗GPT’는 대화형 인공지능 서비스 이다. 두 개다 참 놀라운 서비스이지 않을 수 없다. 요구사항대로 그림을 뚝 딱 그리며 원하는 질문에 대답과 요약까지 해준다.

 

  최근 사람이 만들은 최고의 과학적 권위인 사이언스(Science)와 네이처(Nature) 에서는 인공지능을 이용한 논문 저작물에 대한 서로 다른 의견을 내서 주목을 끌고 있다. 사이언스의 홀든 소프 편집장은 올해 1월 사설을 통해 “과학적 기록은 궁극적으로 중요한 질문의 해답을 찾기 위해 발버둥치는 인간의 노력 중 하나로 이 과정에서 (AI 등) 기계는 도구로서 역할을 할 뿐”이라고 했다. 따라서, 사이언스는 챗GPT를 포함하여 AI로 만든 글 등을 제한했으며 특히, 챗GPT를 활용해 논문을 작성한 뒤 학술지에 제출하는 것을 포토샵 프로그램으로 사진을 편집 또는 합성해 제출하는 것과 같은 행위로 보고 있다. 재미있게도, 동일한 시간대에 네이처는 사설을 통해 “학술지 등은 AI 기반 챗봇의 합법적인 사용을 인정하되 남용을 피하기 위한 명확한 지침을 마련해야 한다”고 하여 AI의 사용을 긍정적인 면을 다루었다.

 

<“챗GPT가 만든 글 인용 금지를” vs “사용 인정하되 출처 밝혀야” 동아 사이언스 2023년 2월 22일>

 

  판단은 독자들의 몫이겟지만, 이는 어느 관점에서 이를 사용하는가, 즉 챗봇을 어떠한 도구로 바라보는 입장의 차이라 생각이 든다. 단순한 도구인가 아니면 창의적인 도구인가? 의사결정을 위한 도구인가 의사를 결정해주는 도구인가? 이는 사용하는 사람의 관점에 따라 서로 다른 결과를 준다. 사람은 동일한 상황에 대해 개인마다 축적된 경험과 개인마다 다른 말하는 방법에 따라 다른 단어를 선택하여 대화 한다. AI도 마찬가지다. 대화를 유지 하는 경험에 해당되는 ‘데이터베이스’와 말을 하는 방법에 해당되는 ‘트레이닝 알고리즘’이 핵심이 된다.

  따라서, 대화형 챗봇의 학습 데이터와 관련된 정보는 해당 챗봇을 운영하는 공정한 기준이 마련되어야 한다. 잘못된 교육이 잘못된 사람의 행동을 만드는 것 처럼, 만약 이러한 과정에서 불공정한 행위가 일어나면, 그 결과로 AI 모델이 부당한 편향을 가지게 될 수 있다. 이러한 편향은 예를 들어, 인종이나 성별 등의 속성을 기반으로 한 차별적인 예측을 유발할 수 있으며, 이는 그 속성을 가진 개인이나 집단에게 불이익을 초래할 수 있다. 또한, 이러한 편향은 모델의 성능을 낮추거나 예측 결과의 신뢰도를 떨어뜨릴 수있다. 여전히 인터넷 사용에 제한이 있거나, 인터넷 기술에 대한 접근성이 낮을 수 있는 전히 일부 지역이나 계층을 위해 인터넷 접근성을 확대하거나, 저소득층에게 보조금을 지원하는 등의 정책적 노력이 필요하다. 또한, 인터넷을 통한 정보 제공이나 소통의 자유는 누구에게나 보장되어야 한다는 원칙이 필요하게 되며, 부유한 계층이나 기업체만이 인터넷에서 지배적인 위치를 차지하는 것은 바람직하지 않다. 따라서, 이러한 부류들의 힘을 제한하고, 불균형한 정보 제공이나 소통의 흐름을 균형있게 조절하기 위한 다양한 노력이 필요하다.

 

  결국, 다한 배경과 경험을 가진 인력을 모집하고 교육하여 다양한 시각과 관점을 반영할 수 있는 AI 모델을 개발해야 한다. 또한, AI 모델을 운영하는 회사나 기관은 공정한 사용을 위해 책임을 져야 하며, 그러기 위해서는 적극적인 감시와 검증 시스템을 구축하고, 개인정보 보호 및 알고리즘 투명성 등 관련 법규 준수를 강제할 수 있는 체계가 필요하다. 그리고, 데이터를 수집할 때, 다양한 인종, 성별, 연령, 지역 등 다양한 요인을 고려하여 샘플링을 해야 한다. 이렇게 수집된 데이터를 바탕으로 AI 모델을 학습시키면 공정한 결과가 나올 가능성이 높아질 것이다.

 

  필자는 본 지의 동일한 칼럼에 “인공지능, 따스한 심장을 달다” 의 제목으로 작년 2월 말에 글을 썻었다. 정확히 1년이 지났다. 그동안 AI는 ‘헉’ 하고 놀랄 정도로 발전 했고 이를 접하고 있다. ‘이러다가는 AI가 주는 데이터가 전부인 거 같은, 갇힌 세상에 살 수 도 있겠구나’ 함을 느꼈다. 최적화된 알고리즘은 다양성 대신 하나의 목적을 향하는 효율성을, 동일시간에 많은 집중할 수 있는 생산성을 추구한다. 이는 실제로 챗GPT를 실제로 써보며 느낀점 이며, 이는 지금 우리사회의 자본제적 생산양식이기도 하다.

 

  그렇지만, 개발하고자하는 AI는 획일화보다는 다양성을, 한길만 제시하는 차가움 보다는 여러 갈래를 고려할 수 있는 따스함을 지녔으면 한다. 따스한 두뇌를 가져야 한다. 사람을 먼저 생각하는 사고방식을 구현 해야 한다. 사람다움이 있어야 사람과 견줄만한 AI로 인정받을 수 있을 것이다.

 

  • x선생 new 팬

    하루하루 과학의 실제가 이론을 따라가지 못하고 있는 이 때, 공감 백배의 글 입니다. 결국은 사람다움에 귀결되는거니까요..

    2023-03-24 15:12:48

  • 덧글달기
    덧글달기
       IP : 3.91.245.93

    등록