본문 바로가기 대메뉴 바로가기

Krict 이모저모

AI의 미래는 ‘인간 화학자’의 창의·윤리에 달려있다

작성자  조회수4,960 등록일2024-06-26
스토리04.jpg [99.4 KB]

KRICT 스토리

 

AI의 미래는 ‘인간 화학자’의

창의·윤리에 달려있다

 

본격적인 인공지능(AI)의 시대가 열리고 있다.

사용자가 원하는 자료를 정리하는 일은 물론이고

그림이나 동영상, 심지어는 컴퓨터 코딩을 만드는 일까지

순식간에 해치우는 ‘생성형 인공지능’(generative AI)이

세상을 완전히 바꿔놓을 기세다.

가장 대표적인 챗GPT가 등장하고

1년 남짓한 사이에 확인된 AI의 발전 속도가 어지러울 지경이다.

이제는 스마트폰에도 생성형 AI가 탑재되고 있다.

 

AI가 인간의 정신노동에만 도움이 되는 것은 아니다.

기계의 일을 대신해 주는 로봇의 기능과 결합해서

인간의 육체노동까지 떠안아주는 AI도 등장하고 있다.

분자의 세계를 다루는 화학도 예외가 아니다.

실험실의 인간 화학자를 대체하는 AI도 개발되고 있다.

학생에게 지식을 가르치는 일을

전담하는 ‘AI 디지털 교과서’도 등장하고 있다.

앞으로 인간은 노동의 굴레에서

완전히 벗어나 유유자적(悠悠自適)하는

신선(神仙)의 삶을 사는 유토피아가 펼쳐질 것이라고 한다.

 

 

기계학습(machine learning)을 이용하는 AI 덕분에 화학의 연구 환경도 빠르게 변화하고 있다. DNA의 염기서열 지도를 작성하고, 새로운 기능의 단백질·의약품·소재를 개발하고, 온실가스가 지구의 기후 변화에 미치는 영향을 분석하는 등의 영역에서 AI의 활용이 놀라운 속도로 늘어나고 있다. 미국화학회 CAS(Chemical Abstract Service)의 분석에 따르면 2015년부터 2020년까지 AI 관련 화학 논문과 특허의 수는 6배나 늘어났다.

 

최근에는 생성형 AI를 이용해서 실제 화합물을 합성하는 과정을 설계해서 실행에 옮기는 ‘AI 화학자’도 개발되고 있다. 실험실의 화학자가 고려해야 하는 여러 가지 요소와 행동을 분석해서 분자를 합성하는 최적의 조건과 경로를 설계하고, 가장 적합한 시약과 실험 방법을 AI가 결정한다.

 

AI가 스스로 위키피디아와 미국화학회(ACS)·영국왕립학회(RSC)의 자료를 검색해서 학습에 활용하고, 실험실의 로봇을 직접 제어해서 액체 시료를 가열하고, 섞어서 실제 실험을 수행하기도 했다. 로봇을 제어하는 코드에서 발견된 오류를 스스로 수정하는 능력도 갖추었다.

 

아스피린이나 파라세타몰과 같은 간단한 유기화합물의 합성은 물론이고 의약품 합성에 널리 사용되는 팔라듐 촉매를 이용하는 스즈키 반응도 4분 이내에 성공적으로 설계하는 놀라운 성과도 확인되었다.

 

인간 연구자와는 달리 AI는 24시간 연속해서 아이디어를 내고, 실험을 수행하고, 개선점을 찾아내는 능력을 발휘하는 장점을 가지고 있다. 자칫하면 화학 실험실에서 화학자가 ‘퇴출’되어 버릴 수도 있다는 뜻이다.

 

그렇다고 화학자의 미래가 암울하기만 한 것은 아니다. AI의 능력이 놀라운 것은 사실이지만 ‘만능’(萬能)의 능력을 갖춘 ‘요술 방망이’는 아니다. AI가 과거에 아무도 찾아내지 못한 새로운 길을 찾아내는 ‘창의성’은 기대할 수 없다는 사실을 주목할 필요가 있다.

 


Chapter 02

화려한 말솜씨에 가려진 데이터 의존성

 

 

생성형 AI가 과학계의 새로운 악동으로 등장하고 있다. AI가 만든 엉터리 문장과 그림이 학술 논문에 은밀하게 사용되고 있다. 생성형 AI가 과학 연구에서 철저하게 경계하는 위조(fabrication)·변조(falsification)·표절(plagiarism)의 가장 현실적인 수단으로 활용되고 있다는 것이다. 학술지의 편집 과정에서 그런 사실을 확인하는 일은 현실적으로 불가능하다.

AI의 현란한 말솜씨는 문장에 포함된 단어에 대한 개별적 지식에 통계적 방법론을 적용해서 구축하는 ‘대형 언어모델’(LLM, large language model)에서 비롯된다. 생성형 AI는 단어를 꿰어맞춰서 학습한 패턴에 맞는 확률론적으로 그럴듯한 문장을 만들어 내는 과정에서 함부로 넘보기 어려운 화려하고 현란한 말솜씨를 자랑하게 된다.

 

그런데 어떤 개념을 언어적으로 ‘설명’하는 능력과 그 개념을 정확하게 이해하고 실제로 ‘사용’하는 능력은 다른 것이다. 메타의 얀 르쿤과 AI 철학자 제이콥 브라우닝에 따르면 그렇다. 언어 모델의 ‘얄팍한 이해력’을 인간이 세상을 살아가면서 다른 사람이나 문화와 상호교류하면서 습득하는 ‘깊은 이해력’과 혼동해서는 안 된다. 생성형 AI는 ‘논리 체계’를 철저하게 무시한 ‘확률론적 언어 조합 프로그램’에 지나지 않는 것이라는 가혹한 평가도 있다. 자칫하면 1996년 뉴욕대학의 수리물리학자 앨런 소칼이 촉발시킨 소모적인 ‘과학전쟁’이 일상화될 수도 있는 것이다.

 

AI의 딥러닝에 사용하는 데이터의 ‘양’과 ‘질’이 언제나 부족할 수밖에 없는 것이 냉혹한 현실이다. 실제로 범용(汎用) 생성형 AI의 학습을 위해 무한히 많은 양의 좋은 데이터를 제공하는 일은 현실적으로 불가능하다. 결국 인간이 현실적으로 제공하는 데이터에 의존하는 생성형 AI에게 ‘환각’은 영원히 회피할 수 없는 숙명일 수밖에 없다.

 

결국 생성형 AI는 ‘참’(眞)과 ‘거짓’(僞)을 판별할 수도 없고, ‘선’(善)과 ‘악’(惡)도 구분할 수도 없다. 더욱이 생성형 AI에게 인간의 ‘창조성’이나 ‘자아’(自我)를 기대하기도 어렵다. ?스스로 창의적인 질문을 제기하지 못하는 생성형 AI에게는 아인슈타인처럼 자연에 숨겨져 있는 새로운 과학적 사실을 밝혀내는 일이나, 셰익스피어와 같은 창조적인 문학 작품을 기대할 수 없다. 물론 살바도르 달리와 같은 독창적인 화풍도 기대할 수 없다. 오히려 생성형 AI는 낮은 수준의 ‘표절기’에 지나지 않는다는 언어학자 노엄 촘스키의 경고를 주목할 필요가 있다.

 

생성형 AI의 ‘의도적’인 거짓말도 경계해야 한다는 주장도 있다. 미국 MIT의 연구진에 따르면, 메타(페이스북)가 개발한 고난도 전략게임인 키케로(Cicero)가 상대를 배신하고, 허세를 부리고, 의도적으로 속임수를 쓴 사례가 확인되었다는 것이다. 정부가 AI의 속임수 가능성을 규제하는 ‘AI 안전법’을 서둘러 마련해야 한다는 것이 주장도 제기되고 있다.

 


Chapter 03

결국 창조·윤리는 AI 사용자의 몫

 

 

생성형 AI가 과학계의 새로운 악동으로 등장하고 있다. AI가 만든 엉터리 문장과 그림이 학술 논문에 은밀하게 사용되고 있다. 생성형 AI가 과학 연구에서 철저하게 경계하는 위조(fabrication)·변조(falsification)·표절(plagiarism)의 가장 현실적인 수단으로 활용되고 있다는 것이다. 학술지의 편집 과정에서 그런 사실을 확인하는 일은 현실적으로 불가능하다.

 

연도별 논문 철회 건수 (자료=네이처)

생성형 AI에 의한 학술 논문의 오염이 얼마나 심각한지는 아무도 알지 못한다. 다만 전통적으로 과학에서 사용되지 않았던 단어의 사용이 갑자기 늘어나는 등의 사실로부터 AI를 사용한 것으로 추정되는 학술논문의 비중이 17.5%나 된다는 추정도 있다. 네이처의 분석에 따르면 2023년에 철회된 논문의 수가 1만 건을 넘었다. 한 해 사이에 5,380건에서 갑자기 2배로 늘어난 것이다.

 

사실 과학계가 생성형 AI의 등장을 마냥 반겼던 것은 아니다. 과학계의 대표적인 학술지인 ‘네이처’는 생성형 AI를 논문의 저자로 인정하지 않겠다고 분명하게 밝혔다. 생성형 AI를 사용하는 연구자는 논문에 그 사실을 명시하도록 요구하는 윤리 규정도 새로 만들기도 했다.

 

생성형 AI에게는 과학적 사실을 확인하고, 윤리적 가치를 판단하는 능력을 기대할 수 없다. ‘화려한 말솜씨’로 무장한 생성형 AI가 과학 연구의 현장을 어지럽게 만들 수 있는 연구실의 새로운 ‘악동’(惡童)으로 전락하는 일을 막아내는 책임은 온전하게 ‘인간’ 과학자의 몫이다. 연구의 결과를 분석하고, 논문을 작성하는 과정에서 생성형 AI 활용에 대해서는 구체적이고 분명한 교육과 지침이 필요하다.

 

이덕환

서강대 명예교수, 화학·과학커뮤니케이션