[‘백발백중 AI 투자 모델’] [‘인간적인 인공지능’에 반대한다] ....
[‘백발백중 AI 투자 모델’]
[인공지능 무기의 위험성 경고한 ‘스카이프’ 창업자]
[플라톤의 귀환]
[‘인간적인 인공지능’에 반대한다]
[애플에 뒤통수 맞은 예술가들]
‘백발백중 AI 투자 모델’
미 재무 장관을 지낸 래리 서머스가 2016년 트럼프 당선을 예측한 구글의 빅데이터 전문가를 찾아 과제를 줬다. 사람들이 소셜미디어(SNS)에 올리는 온갖 주식 관련 정보를 모은 다음 분석 알고리즘을 돌려 ‘필승 투자법’을 찾아보라는 주문이었다. 전문가는 몇 달간 온갖 시도를 한 뒤 답을 가져왔다. “주가 예측은 빅데이터로도 안 된다”는 것이다.
▶투자의 세계는 변수가 너무 많아 예측 불가 영역에 가깝다. 인류 대표 천재 뉴턴과 아인슈타인도 주식 투자에선 쓴맛을 봤다. 뉴턴은 북미 무역 독점권으로 투자자를 현혹한 남해회사에 투자했다가 거품 붕괴의 희생양이 됐다. 아인슈타인은 노벨상 상금을 미 국채에 투자했다가 대공황 탓에 쪽박을 찼다. 뉴턴은 “천체 움직임은 예측할 수 있어도 대중의 광기는 계산할 수 없다”는 경구를 남겼다.
▶하지만 수학을 적용해 ‘필승 투자법’을 찾으려는 시도는 이어졌다. 아인슈타인의 브라운 운동 방정식을 활용해 파생 상품의 적정 가격을 찾는 모델을 창안한 노벨경제학상 수상자들이 롱텀캐피털이란 자산운용사를 차렸다. 저평가됐다며 집중 매수한 러시아 국채가 러시아의 국가부도 선언으로 휴지 조각이 되면서 파산하고 말았다. 반면 엊그제 타계한 미국 수학자 제임스 사이먼스는 ‘방정식 투자 모델’의 잠재력을 실증했다. 그는 수학, 통계학에 기반해 주가 흐름을 예측하는 퀀트(Quant) 투자법으로 30년간 연평균 66% 고수익을 냈다. 하지만 퀀트 투자법도 코로나 국면에선 30% 손실을 기록하는 등 완벽하진 못했다.
▶생성형 AI(인공지능)의 등장은 ‘백발백중 투자법’에 대한 기대를 다시 높이고 있다. 과거 수백 년간의 기업 실적, 주가 흐름, 매수·매도 타이밍, 투자자 심리 변화, 금리·환율 동향 등 빅데이터를 기계 학습 시킨 뒤 AI로 하여금 미래 주가를 예측하게 하는 것이다. 이미 다양한 모델이 나와 있다. 현재 개별 종목의 상승·하락 적중률이 57% 수준이라고 한다. 서울대 컴퓨터공학과 문병로 교수는 2년 내에 획기적 개선이 이뤄져 ‘게임 체인저’가 될 수 있다고 말한다.
▶LG그룹 AI연구원과 국내 AI 스타트업이 공동 개발한 AI 투자 펀드를 작년 11월 미국 증시에 상장했다. AI가 골라내는 주식에 투자하는 펀드(ETF)인데 6개월간 18% 수익을 낼 정도로 성과가 좋다. 과거 ‘필승 투자법’을 찾던 래리 서머스가 얼마 전 챗GPT를 만든 오픈AI의 이사회 멤버가 됐다. 조만간 서머스와 샘 올트먼이 합작한 ‘백발백중 AI 투자 모델’이 등장할 수도 있겠다.
-김홍수 논설위원, 조선일보(24-05-14)-
______________
인공지능 무기의 위험성 경고한 ‘스카이프’ 창업자
영화 ‘터미네이터’에는 인공지능(AI) 킬러 로봇이 나옵니다. 시종일관 무표정하게 표적을 쫓고, 작전 수행 도중 걸리적거리면 무고한 시민이라도 거리낌 없이 제거합니다. 목표를 달성하기 위한 알고리즘에 따라서만 움직이기 때문입니다. 그런데 이런 섬뜩한 상상이 머지않아 현실이 될 수도 있을 것 같습니다.
팔레스타인 무장단체 하마스와 이스라엘이 전쟁을 벌이는 가자지구에서 이스라엘군은 이미 AI 프로그램 ‘라벤더’로 암살 표적을 찾아내 테러리스트 명단을 만들고, 이를 부대에 전달해 작전을 수행하고 있습니다.
그런데 이스라엘군이 신속한 작전 수행을 위해 10% 이상의 오차 범위를 허용하고 있다는 의혹이 제기되고 있습니다. 엉뚱한 사람이 표적으로 오인되어 죽을 수 있다는 거지요.
천재 물리학자 스티븐 호킹부터 최근 테슬라의 최고경영자(CEO) 일론 머스크까지, AI의 발전이 인류의 생존을 위협할 거라고 경고한 인사들은 많았습니다. 하지만 스카이프의 공동 창업자인 얀 탈린(52·사진)은 좀 더 극단적으로 전망합니다. 그는 “(AI가 발전하는) 현재 궤적에서 인류는 그리 오래 살지 못할 것”이라고까지 했습니다. 또 “AI 사업에 자본가들이 투자하는 가운데 전쟁이 일어나고 있기 때문에 반드시 AI 자율살상무기를 통제해야 한다”고 경고했습니다.
그의 위기의식에 세계 각국도 공감하는 것 같습니다. 지난달 29일 오스트리아 빈에서는 AI와 군사기술의 결합을 제재하는 방안을 논의하는 자율무기시스템 관련 콘퍼런스가 열렸습니다. 100여 개국의 군사, 기술 관계자들이 참석한 자리에서 ‘지금이 우리 시대의 오펜하이머 순간’이라는 말도 나왔습니다. 1945년 원자폭탄 개발을 주도했다가 이후 핵무기 확산에 반대했던 로버트 오펜하이머 박사의 예를 들며 AI 무기 규제의 필요성을 강조한 겁니다.
지금까지 가자지구에서 3만5000명 넘는 사람들이 목숨을 잃었습니다. 그중 3분의 2는 여성과 어린이였습니다. 이런 상황에서 목표를 위해 오차범위를 개의치 않으며 스스로 판단해 인간을 살상하는 AI 무기까지 등장한다면 전쟁 양상은 더 참혹해질 겁니다. 인류가 군용 AI 개발에 대한 국제적 기준과 규약 마련에 너무 늦지 않으면 좋겠습니다.
-이의진 도선고 교사, 동아일보(24-05-14)-
______________
플라톤의 귀환
[김대식의 미래 사피엔스]
고대 그리스·로마 시대엔 손으로 글을 써야만 책을 복제할 수 있었다. 많은 시간과 돈이 드는 일이었다. 그로 인해 대부분 책은 출간 이후 사라져버려 소포클레스, 아이스킬로스, 아리스토파네스, 에우리피데스의 작품 중 우리가 여전히 읽을 수 있는 글은 5%도 되지 않는다고 알려져 있다. 비극과 희극, 2편으로 출간된 아리스토텔레스의 ‘시학’은 비극만 남아있다. 더구나 아리스토텔레스의 대부분 책은 공식 버전이 아닌, 강의 준비자료와 학생들의 수강노트로만 보전되어 있다. 찬란했던 고대 그리스·로마 작가와 철학자들의 대부분 글은 영원히 사라져 버린 듯했다.
그런데 18세기 놀라운 사건이 하나 있었다. 바로 ‘헤라쿨라네움’의 발견이었다. 기원 후 79년 베수비오 화산 폭발로 폼페이와 함께 사라져버린 헤라쿨라네움은 고대 로마 재력가들의 별장들로 가득했다. 특히 그중 ‘종이의 별장’은 별장 도서관에서 발견된 1800권 넘는 종이책들로 유명하다. 그런데 문제가 하나 있었다. 화산의 폭발과 함께 책들이 시커먼 석탄덩어리가 되어버렸으니 말이다. 돌돌 말려 있는 종이를 여는 순간 한 줌의 잿더미가 되어버리는 책들. 그렇게도 읽고 싶었던 책들이 눈앞에 있었지만, 영원히 읽지 못한다는 절망적인 상황이었다.
다행히 최근 획기적인 발전이 있었다. 만지기만 해도 잿더미가 돼버리던 책을 비침해식 최첨단 영상기기로 촬영하고, 얻은 데이터를 인공지능 기술로 분석한 결과 드디어 첫 단어들이 보이기 시작한 것이다. 한 자, 두 자, 그리고 빠르게 문장들이 읽히기 시작한다. 가장 최근에는 2000년 전 석탄덩어리가 돼버린 책에서 철학자 플라톤의 무덤 위치가 확인돼 우리를 놀라게 하고 있다.
전문가들은 책을 모두 판독하기 위해서는 앞으로 수십 년이 더 걸릴 거라고 예측한다. 오랜 시간이지만 적어도 영원히 사라졌다고 믿었던 고대 그리스·로마 작가들의 원작을 다시 읽을 수도 있겠다는 희망이 이제 생겼다. ‘종이 별장’의 책들이 모두 판독될 때까지라도 건강하게 살아있어야 하는 이유다.
-김대식 카이스트 교수, 조선일보(24-05-14)-
______________
‘인간적인 인공지능’에 반대한다
[朝鮮칼럼]
알파고 등장 당시 실험을 했다
정체성 위협받으면 인간은 어떻게 대응하나
AI에 한두 가지만 진다면 더 잘하는 것 찾으면 되지만
빅테크의 생존 건 투자 경쟁으로 이제 곧 특정 AI 아닌 ‘일반 AI’ 시대
그때 인간은 뭘로 자존감 찾나
만일 야구 한일전에서 한국이 지난 30년간 단 한 게임도 이기지 못했다고 가정해보자. 사회 정체성 이론에 따르면 우리 국민의 반응은 크게 셋 중 하나이다. 그래도 다시 도전해보자는 반응(도전 전략), 야구로는 일본을 도저히 이기지 못할 것 같으니 가령 축구 같은 다른 종목으로 갈아 타자는 반응(대안적 보상 전략), 또는 아예 다음부터는 일본을 응원하겠다고 폭탄선언(탈퇴 전략).
사람은 자신이 속한 집단이 타 집단으로부터 정체성의 위협을 받으면, 다시 경쟁하려고 하거나, 다른 정체성을 찾거나, 아예 그 집단을 탈퇴하려고 한다. 이때 ‘타 집단’은 당연히 인간 집단을 지칭한다. 가령, 남성 집단, 백인종, 진보 진영, 이성애 집단 등. 어쨌든 사피엔스라는 한 종 내의 하부 집단들이다. 그러나 지난 2016년 3월, 새로운 집단이 등장했다.
많이들 기억하실 것이다. 2016년 3월 9일부터 15일까지 서울에서 진행된 이세돌과의 대국에서 승리한 알파고(구글 딥마인드에서 개발한 인공지능)의 등장을. 그날로 알파고는 체스 챔피언을 꺾은 딥 블루와 퀴즈쇼에서 우승한 IBM의 왓슨에 이은 또 한 분야의 인공지능 챔피언으로 등극했다. 그런데 그것은 인공지능 진화의 새로운 시작에 불과했다.
당시 내 연구실에서는 이 대국 결과에 대해 일반인이 어떠한 심리적 반응을 보이는지를 연구했다. 사회심리학에서는 인간 본성에 크게 열 가지 특징이 있다고 말한다. 인간이 동물과 구별되는 특성들로는 도덕성·성숙함·교양·깊이·정교함이, 기계와 구별되는 특성들로는 따뜻함·정서적 반응·융통성·주체성·합리성이 있다. 이 단면들 중에서 알파고의 압승은 결국 어떤 영역에 위협을 주었을까? 그리고 사회 정체성 이론이 예측하는 것처럼 우리 인간은 셋 중 하나의 전략을 취했을까?
결과는 매우 흥미로웠다. 이 역사적 바둑 대국에서 인공지능이 인간을 위협한 단면은 합리성과 정교함 부분이었다. 그리고 이 충격으로 인해 우리는 도전 전략도 포기 전략도 아닌 대안적 보상 전략을 취했다. 즉, 합리성과 정교함 영역에서는 더 이상 인공지능을 이길 수 없으니 다른 영역에 기대를 걸자는 반응이었다. 실제로 피험자들은 열 가지 특성 중에서 도덕성, 정서적 반응, 자율성이 인간의 정체성에 훨씬 더 중요하다며, 실제로 그 영역들에서 인공지능보다 훨씬 더 낫다고 판단했다. 합리성과 정교함에서의 패배를 다른 영역에서 보상하려 한 것이다. 마치 풍선의 한쪽을 손으로 강하게 쥐면 다른 부분이 부풀어 오르는 것처럼.
만일 또 다른 인공지능이 등장해서 인간의 도덕성, 정서적 반응, 자율성 부분을 위협하면 어떻게 될까? 더 나아가 인간 본성의 열 가지 단면 모두에 큰 위협이 되는 인공지능이 실현된다면 우리는 어떤 대안적 영역들로 나아가 우리의 훼손된 심리를 보상할 수 있겠는가?
충격적 진실은 이 중요한 질문에 답해야만 할 날이 얼마 남지 않았다는 사실이다. 오픈AI사의 챗GPT로 촉발된 AI 군비경쟁이 올 들어 일반 인공지능(AGI)이 언제 실현될 수 있는지에 대한 쟁점으로 또 한 번 점화되었다. ‘일반 인공지능’이란 특정 영역에 국한되지 않는 넓은 범위에서 인간의 평균 지능 수준 이상을 구현할 수 있는 기계지능을 뜻한다. 가령, 영상의학 자료를 수집하고 분석하는 AI는 특수 인공지능인 반면, 인간의 일반적 추론, 학습, 기억, 지각 능력을 구현하여 일상의 파트너가 될 수 있는 정도의 지능이 바로 일반 인공지능이다.
올 초 메타의 저커버그는 “우리가 만들고 싶은 제품을 만들기 위해서는 인공 일반 지능을 만들어야 한다”는 비전을 제시했고, 오픈 AI의 올트먼이 올해 제일 많이 받는 질문 중 하나가 대체 언제 인공 일반 지능이 실현될 것인가 였다. 소프트뱅크의 손정의는 “10년 안에 인간 지능을 뛰어넘는 범용 인공지능이 실현되니 거기에 몰두하라”고 했고, 엔디비아의 황은 “5년 내로 될 것 같다”고 예상했다. 국내에서는 삼성, SK 등이 향후 일반 인공 지능 용으로 사용될 AI칩을 생산하기 위해 사활을 건 경쟁에 나섰다.
인간의 모든 역량을 능가할 일반 인공 지능이 근 미래에 출현한다면 인간은 정체성의 대혼란을 겪게 될 것이다. 심지어 자율성마저 획득하게 된 일반 인공 지능 앞에서 인간의 자존감은 끝없이 추락할 것이고, 심리적 보상을 위해 기계보다 더 잘한다고 여겨지는 또 다른 영역을 찾으려고 안간힘을 쓸 것이다. 그래서 찾을 법한 ‘그래, 인간은 기계와 달리 실수를 잘 하지!’는, 애처로움 그 자체일 것이다.
이런 맥락에서 일반 인공 지능 개발을 위한 글로벌 빅테크 기업들의 군비경쟁이 당연한 선택이며 어쩔 수 없는 전략이라고 확신해서는 안된다. <권력과 진보>에서 기술과 번영의 1천년 역사를 탐구한 아세모글루가 일갈 했듯이, “인공 지능이 인간 지능과 얼마나 유사한가에 집착하지 말고, 그것이 얼마나 우리에게 도구적으로 유용한지”를 숙고해봐야 할 시점이다.
-장대익 가천대학교 창업대학 석좌교수 · 진화학, 조선일보(24-05-14)-
_____________
애플에 뒤통수 맞은 예술가들
창작 도구 산산조각 애플 광고… 기존 충성 이용자가 더 반발
빅테크가 ‘큰’ 이유는 영향력… 빅브러더로 변신 경계해야
2011년 영화 담당 기자를 했을 때 영화제작자와 영화감독들이 모인 자리에서 “기자님은 왜 아이폰을 안 써요? 문화부 기자가, 참 이상하다”는 말을 들었다. 질문이라기보다는 힐난에 가까웠다. 그 뒤에 이어진 말을 들어보니, 예술·문화 방면에 종사하는 사람들은 다 아이폰을 쓰는데 이 분야에 관심을 갖고 취재를 하는 기자가 아이폰을 안 쓰는 건 뭔가 잘못됐다는 취지였다. 실제로 그 자리에서 아이폰을 안 쓰는 이는 나 하나였다. 괜히 혼나는 기분이 들어서 우물쭈물 변명하듯 얘기했다. 아이폰엔 통화 녹음 기능이 없기 때문에 기자가 쓰기 힘들다고.
아이폰을 쓰지 않는 문화부 기자라는 이유로 “왜요?” “의외네요”라는 말을 그 후에도 종종 들었다. ‘가짜’ 문화부 기자 취급을 받는 것 같아 억울했지만 그들을 이해 못 하는 것도 아니었다. 애플 제품은 유독 창작자와 문화·예술계 사람들에게 사랑을 받았다. 애플의 소프트웨어는 작곡이나 영상 편집 등 창작 활동에 강점을 갖고 있다. 심미안을 자부하는 사람들은 애플 제품을 두고 ‘황금 비율’을 운운했다. 폐쇄적인 운영체제나 이용자에게 불리한 수리 정책은 문제 될 게 없었다. 굳이 다른 모든 불편함을 감수하고서라도 어떤 특정한 면을 반드시 필요로 하는, 그런 제품을 만드는 회사가 애플이었다. 전 과목에서 90점 이상을 받는 무난한 모범생이 아니라 다른 과목은 50점을 맞아도 수학과 미술은 100점만 맞는 외골수 천재 같달까. 창작자와 예술가, 혹은 그런 이들을 동경하는 사용자에게 애플은 ‘나를 이해하는 쿨하고 예쁜 친구’였다.
지난주 애플이 ‘크러쉬’라는 제목의 새 아이패드 광고를 내놨을 때 이들은 그렇게 좋아하던 친구한테 뒤통수를 세게 맞은 기분이 들었을 것이다. 악기와 페인트, 레코드 플레이어, 카메라 등 창작에 필요한 모든 도구를 한데 모아 놓고 거대한 압착기로 눌러서 부순 뒤 얇은 아이패드를 그 자리에 등장시킨다. 예전 같았으면 파격적인 광고라고 생각했을 수도 있겠다. 하지만 지금이 어느 시대인가. 생성형 인공지능(AI)이 음악도 짓고, 그림도 그리면서 영화까지 만들 수 있다는 소식에 누구보다 분노하고 두려워하는 이들이 바로 창작자와 예술가다. 그들은 산산조각이 난 피아노와 캔버스를 보면서 자신의 뼈가 으스러지고 피가 튀는 느낌이 들었을 것이다. 애플이 더 이상 쿨하고 똑똑한데 예쁘기도 한 친구가 아니라 창작자를 옥죌 수 있는 권력을 가진 빅테크라는 것을 깨달았다. 창작자들의 거센 항의에 애플은 48시간 만에 광고를 내리고 사과문을 냈다.
광고에서 둘째 가라면 서러운 애플로서는 어안이 벙벙하지 않았을까. 애플은 1984년 맥을 출시하면서 당시 PC 시장을 독점하다시피 한 IBM을 겨냥한 광고를 했다. 한 여성이 IBM을 상징하는 독재자가 나오는 스크린에 창을 던져 산산조각을 내는 장면은 지금까지도 최고의 광고로 꼽힌다. 당시가 1984년이란 점을 감안해 IBM이 조지 오웰의 소설 ‘1984′ 속 빅브러더라고 짚어주기까지 했다. 같은 ‘산산조각’이지만 그때는 맞고, 지금은 틀린다. 그때 언더도그에 불과했던 애플이 지금은 40년 전의 IBM보다 더 커진, ‘비거브러더’다. 언더도그가 때려부수는 건 들이받는 것이고, 저항이지만 빅브러더가 한다면 그것은 찍어누르기이자 폭압이다.
빅브러더에게 ‘빅’이 붙는 것은 덩치 때문이 아니듯, 빅테크에 ‘빅’이 붙는 것도 단지 매출 높고 회사 규모가 커서는 아니다. 문화적 영향력과 사회적 책임도 그만큼 크기 때문이다. 애플만의 문제가 아니다. 성공한 기술 기업들은 대부분 스타트업과 같은 언더도그에서 시작해 빅테크로 향해간다. 우리 사회에 어떤 영향을 끼칠 수 있는지 고려하지 않는다면 빅브러더이자 독재자로도 변할 것이다. 이들에게 창을 겨눌 언더도그, 반항아가 등장하길 바란다.
-변희원 기자, 조선일보(24-05-14)-
===================