[계속 뜨는 화장품 광고에 짜증... 공해 같은 구글 광고 사라진다]
[“당신의 모든 걸 알고 있다”… 소름 돋는 빅테크 표적광고]
[AI에게 차별당하는 시대]
[인공지능(AI)]
계속 뜨는 화장품 광고에 짜증... 공해 같은 구글 광고 사라진다
검색할 때 생성되는 데이터 이용 소비자 성향에 맞는 광고 노출 ‘개인정보 이용 돈벌이’비판 거세
구글이 온라인 맞춤형 광고에 사용되는 ‘쿠키’ 수집을 연내 완전히 중단한다. 인터넷을 할 때마다 원치 않는 광고가 공해 수준으로 계속 따라다니면서 불편함을 겪던 소비자들의 불만이 상당 부분 해소될 것으로 기대를 모은다. 월스트리트저널(WSJ)은 “연 6000억달러(약 789조원)에 이르는 온라인 광고 산업 역사상 가장 큰 변화 중 하나”라고 했다.
구글 오피스 로고. /연합뉴스
4일(현지 시각) WSJ에 따르면 구글은 이날부터 자사 웹브라우저인 크롬 사용자가 생성한 쿠키를 수집해 온라인 광고 업계에 제공하는 것을 중단하기 시작했다. 먼저 전체 크롬 사용자의 1%를 대상으로 하며, 점차 대상을 확대해 연말까지 완전히 중단할 계획이다.
쿠키는 웹브라우저 사용자가 검색을 하거나 웹사이트에 접속할 때 생성되는 데이터이다. 온라인 광고업계는 빅테크가 수집한 쿠키를 이용해 맞춤형 광고를 노출시켜 왔다. 사용자의 연령, 성별, 검색 이력 등을 토대로 광고해 구매율을 높이는 전략이다. 예컨대 20대 여성이 화장품을 검색하거나 판매 사이트에 접속하면, 이후 관련 상품 광고가 나타나는 식이다. 하지만 맞춤형 광고라는 ‘알고리즘의 늪’에 한번 빠지게 되면 소비자들은 계속해서 같은 광고를 봐야 하는 불편을 겪었다. 또 소비자 단체에서는 병력과 진단 기록 등 민감한 개인정보까지 제3자에게 제공되고 있다고 주장한다. 구글이 정당한 대가 없이 개인정보를 취득해 돈벌이에 활용한다는 비판도 높았다. 테크 업계 관계자는 “각국이 개인정보 이슈를 민감하게 보고 규제하기 시작했고, 브라우저의 경우 연령 확인도 어려워 청소년까지 맞춤형 광고에 무방비로 노출되는 문제가 있었다”고 했다.
시장조사 업체 스탯카운터에 따르면 인터넷 브라우저 시장에서 크롬의 점유율은 약 65%로 압도적이다. 앞서 애플의 사파리(19%)와 모질라의 파이어폭스(3%) 등 다른 웹브라우저가 이미 쿠키 제공을 중단한 만큼, 구글까지 이에 가세할 경우 현재와 같은 맞춤형 광고는 완전히 퇴출되는 셈이다.
구글은 사용자들의 관심사를 반영할 수 있는 새로운 광고 시스템을 업계에 제공할 계획이다. 하지만 온라인 광고업계는 쿠키가 없어질 경우 소비자를 정밀하게 타기팅하는 것이 불가능해 과거처럼 다수를 겨냥한 광고를 다시 활용할 수밖에 없다는 입장이다. 온라인 광고업계 이익 단체 IAB 테크랩의 최고경영자 앤서니 캐트서는 “쿠키를 퇴출하기 전에 구글은 업계가 새로운 기술을 준비할 수 있도록 충분한 시간을 제공해야 한다”고 했다. 업계에 제공하는 정보가 제한되는 만큼 온라인 광고 단가 하락도 불가피하다. 실제로 파이어폭스와 사파리에서는 쿠키 제한 이후 광고 가격이 떨어졌다.
-유지한 기자, 조선일보(24-01-06)-
_____________
“당신의 모든 걸 알고 있다”… 소름 돋는 빅테크 표적광고
‘그들은 당신의 모든 것을 알고 있다.’ 페이스북이나 유튜브 같은 소셜미디어를 사용하는 이들은 자동추천 콘텐츠나 광고를 보면서 깜짝 놀라는 경험을 반복하게 된다. 딱 한 번 검색했거나 클릭했을 뿐인데 내 취향을 정확히 저격한 연관 내용들이 곧바로 따라붙는다. “뜬금없이 당뇨약 광고가 뜨기에 무심히 넘겼는데 며칠 뒤 병원에서 당뇨병 진단을 받았다”며 혀를 내두른 사람도 있다. 이쯤 되면 사용자들의 반응대로 “소름이 돋는, 무서운 수준”이다.
▷인공지능(AI)을 기반으로 작동하는 추천 알고리즘의 수준은 날로 진화하고 있다. 각종 검색과 시청 등을 통해 입력되는 사용자 정보가 그 바탕이 된다. 연령과 성별, 직업, 거주지역 같은 정보는 물론이고 식습관과 패션 스타일, 정치 성향 등까지 세세히 수집, 분석되고 이용된다. 이를 바탕으로 40대 여성에게 “20대처럼 보인대요∼”라며 화장품과 의류 구매, 피부과 추천 광고가 줄줄이 날아드는 식이다. 이 중에는 업체들이 동의 없이 확보해 상업적으로 이용하거나 동의를 사실상 강제해 얻어내는 사적인 정보들도 적잖다. 개인정보 유출과 사생활 침해 등 우려가 커진다.
▷해외에선 이념적 편향성을 강화하는 정치 광고나 증오 연설이 문제가 된다. 불법 이민자 유입, 흑백 인종차별, 선거 때마다 심화하는 정치·사회적 양극화 등으로 몸살을 앓고 있는 미국과 유럽에서 더 심하게 나타나는 확증편향이다. 미국에서는 올해 초 10대 학생들 사이에서 극단적 여성혐오 성향을 가진 극단주의자 앤드루 테이트의 유튜브 영상이 퍼지면서 사회적 문제가 되기도 했다. 주요 플랫폼들의 추천은 집요해서 ‘연관 게시물’ 사이클에 한번 들어가면 빠져나오기도 쉽지 않다.
▷빅테크 기업들의 ‘맞춤형’ 콘텐츠 제공을 제한하는 유럽연합(EU)의 규제법이 25일부터 시행에 들어갔다. 디지털서비스법(DSA)에 따라 기업들은 앞으로 개인의 종교나 정치 성향에 근거한 맞춤형 광고를 내보내지 못한다. 사용자가 추천 기능을 원하지 않으면 이를 끌 수 있도록 해줘야 한다. 세계 디지털 시장 2위인 유럽의 강력한 규제에 메타와 알파벳 같은 기업들은 부랴부랴 대응에 나선 상황이다. EU 규제에 맞춘 제한조치들이 곧 아시아 등 다른 지역에서도 적용될 것이란 전망이 나온다.
▷맞춤형 게시물 규제가 장점까지 약화시키게 될 것이라는 반발도 없지는 않다. 소비자 욕구는 점점 다양해지고 정보가 범람하면서 효율성도 그만큼 요구되는 시대다. 필요한 이에게 필요한 내용만 취합해 제때 제공하는 알고리즘에 대한 비즈니스 업계의 수요는 늘고 있다. 강점을 살리고자 한다면 정보의 무단 수집과 편식 같은 부작용부터 줄여나가야 할 것이다. 최근 규제 논의를 시작한 한국에도 던져진 숙제다.
-이정은 논설위원, 동아일보(23-08-29)-
_______________
AI에게 차별당하는 시대
[특파원 리포트]
지난달 존스홉킨스대학, 조지아공대, 워싱턴대학 연구원들은 테크 업계를 좌절시키는 연구 결과를 하나 내놨다. 현재 인터넷에 떠도는 각종 데이터를 기반으로 구축된 인공지능(AI)을 로봇에 적용했더니 로봇이 인종차별과 성차별적으로 행동한다는 것이다. 연구진은 로봇에게 백인과 흑인, 라틴계, 동양인 남성과 여성 사진을 제시하고, 로봇이 이 얼굴들을 의사, 주부, 범죄자 등으로 구분하는 실험을 했다. 로봇은 흑인 남성을 백인 남성보다 10% 더 많이 범죄자로 인식했고, 라틴계 남성을 백인보다 10% 더 청소부로 인식했다. 연구진은 “놀랍지 않은 결과”라고 했다. 로봇이 사람이 가진 편견을 그대로 흡수한 것이다.
인간이 제시한 알고리즘을 통해 구축된 AI가 결국엔 인간과 같은 편견을 갖게 된다는 것은 널리 알려진 이야기다. AI 구축을 위해 제시하는 데이터를 선정할 때부터 인간의 판단이 들어가고, 그 안에는 편견이 자리한다. AI는 이러한 편견을 기본값으로 받아들이고 심화 학습을 통해 이를 강화한다. 테크 업계에선 ‘AI 윤리’를 강조하며 AI에 편견을 제거하는 작업을 수년째 진행하고 있지만 별다른 소득이 없다. AI에 직접 철학적 윤리를 가르치는 연구도 진행 중이지만 쉽지 않다. 2015년 구글의 사진 관리 앱인 ‘구글 포토’가 한 흑인 여성을 고릴라로 분류해 논란이 됐고, 국내에서도 2020년 AI 챗봇 ‘이루다’가 잘못된 학습으로 성차별적 혐오 발언을 내뱉으며 문제가 불거졌지만 AI의 편견을 없애는 획기적인 방법과 알고리즘은 아직도 찾지 못했다.
편견을 가진 AI는 생각보다 큰 문제를 일으킬 수 있다. 이러한 AI가 로봇에 적용되면, 흑인과 동양인보다 백인을 우수하다고 보는 로봇, 여성보다 남성이 우월하다고 믿는 로봇, 고소득자가 저소득자보다 인간적으로 뛰어나다고 생각하는 로봇이 등장할 수 있다. 인간을 넘어 로봇에게도 차별당하는 세상이 올 수 있다.
현재 AI 윤리 연구는 AI 개발보다 후순위로 밀려있다. 일각에선 AI 윤리를 강조하면 이제 막 탄력받은 AI 개발이 주춤할 수 있다고 한다. AI 윤리를 적극적으로 연구하는 곳도 미국의 구글, 마이크로소프트 등 빅테크 기업뿐이다. 이 문제를 국가적 장기 문제로 인식하고 연구에 나서는 나라는 보이지 않는다. 특히 한국은 준비가 더욱 미흡하다. 편견을 없앤 AI와 로봇을 만들기 어렵다면, AI와 로봇의 의사결정 선택권을 제한하는 사회적 합의가 필요하다.
거의 모든 공상과학(SF) 영화는 인공지능과 로봇이 넘치는 미래를 유토피아가 아닌 디스토피아(부정적인 세계)로 그린다. 아직은 때가 아니라며 미루다간 그 미래가 진짜로 닥칠지 모른다. 편협한 AI로 구동하는 로봇에게 차별당하는 시대가 올 수 있다.
-실리콘밸리=김성민 특파원, 조선일보(22-07-23)-
______________
인공지능(AI)
사람보다 엑셀 프로그램에 훨씬 가까운 AI 기술 수준
아직도 본질적 한계 많고 글로벌 기업도 막 시작 단계
20여년간 IT 분야 성공한 한국, AI 强國 될 수 있어
대통령 직속 4차산업위원회의 장병규 위원장은 얼마 전 "2022년까지 세계 4대 인공지능(AI) 강국 목표를 달성하겠다"고 했다. 이는 한국이 AI 분야에서 뒤처질 것이라는 위기감을 보여준다. "미국과 중국만 AI 초강대국이 될 것"이란 일부 관측도 불안을 증폭시킨다. 정말 그럴까. 실상을 보면 AI 기술은 아직 초기 단계에 있을 뿐이다. 'AI 초강대국'은 존재하지 않으며, 획기적인 AI 사업 모델로 돈을 버는 사례는 세계적으로 전무(全無)하다.
물론 구글의 AI인 '알파고'가 세계 바둑 챔피언 이세돌을 물리친 것은 기적 같은 일이었다. 구글·테슬라·도요타 같은 기업들은 자율주행차 분야에서 AI를 활용해 기술적인 돌파구를 열고 있다고 주장한다. 하지만 속지 않길 바란다. 바둑이나 게임은 매우 특수한 경우일 뿐이다. 자율주행차도 여전히 훈련 중인 상태다.
알파고는 서로 다른 두 AI 체계가 상호 경쟁을 통해 학습하는 방식으로 바둑을 배웠다. 알파고 A와 B가 엄청난 양의 대국(對局)을 하면서 실전 훈련을 한 것이다. 대단한 학습 능력이지만 놓치지 말아야 할 대목이 있다. 두 대의 AI가 바둑을 둘 때 수많은 경우의 수(數)는 각각 승리 또는 패배라는 명확한 형태의 결과물로 나온다는 점이다. 많은 양의 대국을 할수록 좋은 수를 찾기 수월한 것이다. 하지만 현실 세계에는 바둑 같은 보드 게임과 달리 미리 분명하게 결정된 규칙이나 결론이 존재하지 않는다. AI가 수많은 자신의 결정 가운데 어떤 행동이 적절했는지 여부를 판단하며 학습할 수 없다는 뜻이다. AI 시스템이 수집한 정보를 이해하고 이걸로 무엇을 할지 결정하는 것은 현재로선 인간만 할 수 있다.
구글의 웨이모는 지금까지 1000만마일이나 시험 운전을 했지만 지금도 운전석에 사람이 없는 채로 움직이는 '무인(無人)차' 수준은 아니다. 심지어 테슬라의 자율주행 시스템 '오토파일럿'은 15억마일에 달하는 차량 관련 데이터를 수집했지만 여전히 신호등에서 제대로 서지 못하는 실수를 저지른다.
오늘날의 AI 시스템은 뇌신경을 모방한 딥러닝(심층 학습) 기술을 사용한다. 그러나 그 기능은 매우 제한적이다. 당신은 한 번 고양이를 보면 그 이후에는 다른 종(種)의 고양이를 봐도 그게 고양이인 줄 안다. 하지만 AI는 고양이와 개를 구분하려면 사전에 엄청난 양의 데이터를 제공받아 이 데이터의 패턴을 분석·저장해야 한다.
여기에 AI의 본질적 한계가 있다. AI는 결국 제공받은 데이터만큼만 똑똑해진다. 스스로 분석한 내용을 인간처럼 '이해'하지 못한다. 따라서 스스로 내린 분석을 다른 맥락의 상황이나 시나리오에 응용도 할 수 없다. 현재 기술 진화 수준만 놓고 판단하자면 AI는 '생각하는 사람(thinker)'보다 수치 계산이나 통계 작업을 효율적으로 하는 응용 프로그램인 '엑셀'에 훨씬 가깝다.
AI 진화가 더딘 또 다른 이유는 그것을 설계한 사람조차 이 AI가 어떻게 일을 수행하는지 정확히 알지 못한다는 데 있다. 예컨대 알파고가 이세돌 9단에 승리했을 때 수많은 묘수(妙手)를 연발했지만, 알파고 개발자는 그게 왜 묘수인지, AI가 어떻게 그 수를 습득했는지 모른다. AI에 일종의 '블랙박스'가 존재하고 있는 것이다. AI를 비즈니스에 활용하려면 이 AI의 의사 결정 논리를 알아야만 한다.
미국 아마존이 이달 초 AI 채용 시스템을 폐기한 게 그 어려움을 보여준다. 이 AI는 이력서에 '여성'이란 단어가 있으면 감점을 줬는데, 아마도 과거에 합격·불합격한 지원자들의 이력서 데이터를 다량 학습한 AI가 그 속에서 '여성을 차별하라'는 패턴을 찾아냈기 때문일 것이다. 신뢰성에 대한 논란도 있다. 굉장히 똑똑해 보이는 AI도 생각보다 쉽게 속는다. 구글 연구 그룹은 최근 AI 시스템이 천연색 스티커 한 장으로 바보가 되는 연구 결과를 내놓았다. 이 AI는 97%의 확률로 바나나를 알아챘지만, 바나나 옆에 이 원형 스티커를 붙이자 99%의 확률로 바나나를 토스터기로 인식했다.
오해하지는 마시라. AI의 잠재력은 엄청나다. 다만 본격적인 AI 경쟁은 아직 시작조차 되지 않았다. 글로벌 기업들도 이제 막 뛰어드는 단계이며 성공했다는 일부 기업들은 잘못된 과장 홍보를 하고 있을 뿐이다. 한국이 지난 20여년간 IT 분야에서 성공했던 것처럼 AI 강국으로 도약할 기회의 문은 열려 있다.
-비벡 와드와 미국 카네기멜런대 석좌교수·하버드대 로스쿨 특별연구원, 조선일보(18-10-20)-
========================
'[세상돌아가는 이야기.. ] > [時事-萬物相]' 카테고리의 다른 글
[요건 조금 올렸더니 선거 여론조사 업체 3분의 1 퇴출] .... (1) | 2024.01.09 |
---|---|
[시급하다며 특검 강행하더니 이제는 최대한 늦춘다니] .... (1) | 2024.01.08 |
[CES 휩쓰는 AI.. 韓 생존전략 급하다] [재난은 아날로그로.. ] (2) | 2024.01.06 |
[한국, 이제 사회 선진화 고민할 때] [아이 출생에 1000만원.. ] (1) | 2024.01.06 |
[국민이 호랑이다] [한 위원장이 책임지고 특별감찰관 임명.. ] (3) | 2024.01.06 |