뉴스 > IT·인터넷
[이슈기획] 다시 떠오른 AI 위험론… 안전성과 상업성의 줄다리기
샘 올트먼 오픈 AI CEO 해임 후 복귀… 기업인·경제학자 등 이사회 포함
글로벌 빅테크 AI 서비스 경쟁 가속화… AI 안전성 우려 부각
업계 관계자·전문가 “안전성 위험 있지만 현재의 AI는 수동적 형태”
양준규 기자 기자페이지 + 입력 2023-11-27 09:05:00
▲ 오픈 AI의 CEO 해임 및 교체 과정에서 AI의 안전성이 다시 화두로 떠올랐다. 게티이미지뱅크
 
최근 인공지능(AI) 연구소 오픈 AI가 CEO 교체와 관련해 내홍을 겪으며 마이크로소프트 등 외부 자본의 영향력이 강해질 것이라는 전망이 나왔다. 이에 따라 기업들이 AI의 안전성보다는 상업성을 추구하면서 예상치 못한 문제가 발생할 수 있다는 우려가 커지고 있다.
 
연구 집단에서 상업적 기업으로… 기술 경쟁 속 안전·윤리 배제 우려
 
17일(미국 현지 시각) 오픈 AI 이사회가 샘 올트먼 오픈 AI CEO를 해임했다는 소식이 전해졌다. 이후 오픈 AI 최대 투자자인 마이크로소프트를 비롯한 주주들이 올트먼 CEO의 복귀를 강력하게 요구했고 5일 동안의 논의 끝에 올트먼 CEO의 복귀가 결정됐다.
 
샘 올트먼은 오픈 AI의 창립자로 챗GPT의 아버지로 알려져 있다. 챗GPT 열풍이 전 세계를 강타하면서 샘 올트먼과 오픈 AI는 오늘날 세계에서 가장 주목받는 인물이자 단체 중 하나가 됐다.
 
오픈 AI의 CEO 교체 및 복귀 과정에서 그 이유를 두고 수많은 가설이 떠돌았다. 그 중에서도 오픈 AI 내부에서 AI의 개발 속도와 제품 상용화 방법 등을 두고 갈등이 있었다는 이야기가 나오면서 AI의 안전성에 대한 화두가 다시 떠올랐다.
 
이번에 올트먼 CEO를 해임하는 데에 앞장선 것으로 알려진 일리야 수츠케버 수석 과학자는 오픈 AI 내부에서 인간의 지능을 넘어선 인공지능을 제어할 방법을 연구하는 팀을 이끌고 있으며 과거에도 AI 위험성에 대해 우려하는 의견을 남긴 적이 있는 인물이다.
 
▲ 오픈 AI에서 해임된 후 게스트 신분증은 처음이자 마지막이 될 것이라고 말했던 샘 올트먼 오픈 AI CEO가 결국 복귀했다. 샘 올트먼 X 캡쳐.
 
오픈 AI의 회사 소개란을 보면 모든 인류에게 혜택을 제공하는 것을 목표로 삼고 있다. 올트먼 CEO 경질 시의 공지에서도 이와 같은 내용을 언급했다. 오픈 AI는 영리 법인을 자회사로 설립하고 투자를 유치하는 과정에서도 투자 수익을 제한하고 MS를 비롯한 외부 투자자의 이사회 개입을 차단하는 등 기술 연구 집단으로의 정체성을 굳혀왔다.
 
이러한 상황에서 외신에서는 더 많은 투자를 유치해 오픈 AI의 기업 규모를 키우려고 했던 올트먼 CEO와 상업적인 성공보다 안전하고 보편적인 AI 기술을 우선시하는 오픈 AI가 충돌했다는 주장이 나오고 있다.
 
올트먼 CEO가 해임되며 비영리 단체로서의 오픈 AI가 유지되는 듯했으나 올트먼 CEO가 복귀하는 과정에서 브렛 테일러 전 세일즈포스 CEO와 빌 클린턴 행정부에서 재무부 장관을 지낸 경제학자 래리 서머스가 합류했다. 이에 따라 오픈 AI는 비영리 기술 연구 집단에서 상업적 AI 기업으로의 전환이 이뤄질 것으로 예상된다.
 
글로벌 AI 기술의 선봉에 서 있는 오픈 AI의 정체성이 크게 변화함에 따라 AI 기술의 상업화 속도 또한 가속화될 것으로 보인다. AI가 신기하고 놀라운 기술을 넘어 천문학적인 금액이 걸린 미래 유망산업으로 떠오름에 따라 AI에 자금을 투자하는 빅테크 기업들의 영향력이 커진 것이다.
 
시장조사업체 IDC에 따르면 초거대 AI를 포함한 전 세계 AI 시장 규모가 2024년 5543억 달러에 달할 것으로 예상했으며 국내 AI 시장 역시 2024년 3조662억 원에 달할 것으로 예상하고 있다.
 
마이크로소프트는 오픈 AI에 130억 달러에 달하는 금액을 투자한 것으로 알려졌으며 이번 사건을 계기로 오픈 AI의 의사결정에 영향력을 키울 것으로 예상된다. 구글과 애플의 경우 기업이 직접 AI 연구팀을 가지고 AI 기술 개발에 박차를 가하고 있다. 이에 따라 빅테크 기업들의 기술 경쟁이 결과적으로 AI가 촉발할 수 있는 위험성을 등한시할 수 있다는 우려 또한 나오고 있다.
 
AI 위험성 경고 계속… 전문가 “꼭 우려하는 일 일어난다고 보긴 어렵다”
 
AI가 자의식을 가지거나 인류를 뛰어넘는 지능을 가지게 됐을 때의 위험성은 이전부터 언급돼 왔다. 이에 따라 AI 개발에 있어서 개발 속도와 상업성보다 안전과 윤리가 우선시돼야 한다는 경고 또한 뒤따랐다.
 
실제로 딥러닝 기술의 대부로 불리는 제프리 힌튼 박사는 올해 5월 구글에서 퇴사한 이후 BBC와의 인터뷰에서 AI가 인간의 지능을 넘어설 수 있으며 이에 따라 인간을 조종할 수 있다고 경고한 바 있다.
 
다만 힌튼 박사는 구글이 매우 책임감 있게 연구를 진행하고 있다고 덧붙였으며 또 다른 AI 권위자인 얀 르쿤 뉴욕대 교수는 AI의 위험이 과대평가돼 있다고 반박하는 등 기업들의 AI 경쟁이 꼭 커다란 위험을 불러일으킬 수 있다고 결론 내리기는 어려운 상태다.
 
▲ 구글이 챗GPT의 대항마로 내놓은 생성형 AI '바드'. 바드 캡쳐.
 
이와 관련해 전문가들과 현업 개발자들의 의견은 다양하다. 하지만 기업들의 AI 기술 경쟁 과정에서 안전성과 윤리 문제가 발생할 수 있지만 SF 영화나 소설에 나오는 것처럼 인간을 지배하거나 해를 끼치는 AI가 나올지에 대해서는 회의적인 반응이 주를 이룬다.
 
AI 개발팀에서 일하고 있는 한 AI 전문 개발자는 “AI가 다루는 데이터가 너무 방대해서 전체 사례에 대한 테스트를 진행할 수 없다”며 “결국 일부 샘플만 확인하고 출시하게 되는데 그렇다면 숨어 있는 문제들이 터질 수밖에 없고 기업 입장에서 가장 효과적인 비용과 시간을 계산하다 보면 결과적으로 상업성과 안전성을 저울질하는 형태가 된다”고 말했다.
 
이어 “다만 현재의 AI가 자체적으로 진화해 인간을 위협할 수 있는 가능성은 거의 없다고 봐도 된다”며 “인간이 악한 목적을 가지고 AI에게 명령할 수는 있지만 여기에도 필요한 데이터가 많기 때문에 흔히 염려하는 ‘킬러 로봇’ 같은 것이 나올지는 모르겠다”고 말했다.
 
이재성 중앙대학교 인공지능연구소장은 “오픈 AI는 GPT-3로 넘어가면서 내부를 공개하지 않고 있는데 기업 이윤을 생각하면 이게 맞겠지만 AI의 안전성에 대해 외부에서 검증하기 힘들다는 점만 봐도 AI의 안전성이나 윤리 면에서는 문제가 있는 것이 맞다”고 말했다.
 
이어 “현재 공개된 AI는 아직도 상당히 수동적인 편이지만 자기 자신을 타자화하는 면이 아예 없지는 않기 때문에 자의식이 있기는 하다고 말할 수 있을 것 같다”며 “다만 AI를 인간이 통제할 수 있냐의 문제에서는 AI에 돈을 투자하는 기업 입장에서도 통제가 되는 편이 좋기 때문에 상업적 가치를 더 높게 둔다고 하더라도 많은 관심을 기울일 것으로 보인다”고 말했다.
이 기사에 대해 어떻게 생각하시나요?
추천해요
0
좋아요
0
감동이에요
0
화나요
0
슬퍼요
0
오늘자 스카이데일리
주요 섹션 기사
주소 : 서울특별시 중구 새문안로 26 청양빌딩 7층 | 전화 : 02-522-6595~6 | 팩스 : 02-522-6597
인터넷신문 등록번호 : 서울시 아01703, 등록일 : 2011년 7월 18일, 대표이사·발행인·편집인: 조정진, 편집국장: 고동석
copyrightⓒ2011, All rights reserved. Contact : skyedaily@skyedaily.com | 청소년보호책임자 : 박선옥