CT 콜로키움
- [GSCT 콜로키움] 4.27 (화) | 이준환 (서울대 언론정보학과 교수)
- 관리자 |
- 2021-05-20 13:25:11|
- 797
장소 : 비대면강연(ZOOM)
주제 : Media, AI 그리고 HCI
연사 : 이준환 (서울대 언론정보학과 교수)
학력
- School of Computer Science, Carnegie Mellon University 박사 졸업 (2008)
- School of Design, Carnegie Mellon University 석사 졸업 (2000)
- 서울대 산업디자인 및 시각디자인과 학사 졸업 (1995)
경력
- Associate Professor, Department of Communication & Information Science and Culture, Seoul National University (2011.03-Present)
- CIO & Director of Mobile Service Division of NEOWIZ INTERNET / NEOWIZ LAB. (2010.03-2011.02)
- Director of Music Service Division in NEOWIZ BUGS CO. (2009.06-2010.03)
- Post-Doctoral Research Fellow in Carnegie Mellon University (2008.07-2009.05)
- Taught “Graduate Design Seminar II (51-702)” and “Introduction to Computing in Design (51-741)” in Carnegie Mellon University (2000.07-2008.05)
- Summer Intern in IBM T.J. WATSON Research Center (2000.05-2000.07)
- Manager of Interface Design Team in NEOWIZ CO. (1997.05-1998.06)
- Project Manager and Interface Designer in IMAGEDROME (1995.10-1997.05)
- Creative Director in ALCHEMIST (1994.12-1995.08)
강연 소개
신문, 방송 등으로 대표되는 전통적인 미디어는 디지털 환경에서 큰 변화에 직면하고 있다. 로봇저널리즘과 자동화된 팩트체킹 등은 이러한 변화의 좋은 사례이다. 정보의 생성과 전달과정에 사람이 아닌 AI가 개입하게 된 로봇저널리즘은 전통적인 미디어가 가진 여러 문제를 해결하게 해준다. 그러나 AI 가 정보를 생성하는 것만이 중요한 것은 아니다. 미디어는 정보서비스 플랫폼이 되었으며 이러한 상황에서 사용자의 요구를 어떻게 담아내야할지가 중요한 이슈로 떠올랐다. 본 세미나에서는 로봇저널리즘과 자동화된 팩트체킹, 대화형 에이전트 연구를 소개하며 미디어와 커뮤니케이션 환경에 AI가 어떻게 활용될 수 있는지를 살펴본다.
자기소개
서울대학교에서 공업디자인을, CMU에서 Computer Science를 전공하며 Information Visualization 와 HCI를 연구하였고, 현재는 서울대학교에서 언론정보학과와 hci+d 랩에서 학생들을 지도하고 있습니다. 현재 소셜 컴퓨팅 관련 연구 토픽을 다루고 있으며, 로봇저널리즘, 알고리즘 기반의 팩트체킹과 휴먼-로봇 인터랙션 관련 연구를 진행하고 있습니다.
[강연 내용]
<로봇저널리즘 연구>
로봇저널리즘 소개
로봇저널리즘은 기사 작성에 필요한 데이터의 수집에서 분석, 처리, 기사의 핵심 내용 발견 및 기사 본문 작성, 배포에 이르는 전 과정에 관여하며 자동으로 뉴스 기사를 생성하는 분야입니다. Northwestern 대학교의 StatsMonkey 프로젝트로 시작된 로봇저널리즘은 현재 국내에서는 서울대학교 HCI+D 연구실에서 최초로 한글 기반의 로봇저널리즘 뉴스 기사 만들기 시작하였습니다.
KBO 프로야구 뉴스 기사와 같이 현재 로봇저널리즘을 통해 데이터 수집과 분석을 통해 기대 승률을 예측하기도 하고, 기사 작성이 가능합니다. 2군 야구 경기 기사 개발과 같이 데이터만 있으면 투수/타자 관점에서의 서로 다른 기사 생성이 가능합니다. HCI+D 랩에서 시스템 개발을 맡아서 하고 있으며, 기존의 언론사가 인력의 문제로 하기 어려운 일들을 하고 있습니다. 이는 데이터를 텍스트 기반의 내러티브로 만드는 개념이고, 한국어/중국어/영어/프랑스 등 다양한 언어로 동시에 기사를 생성하는 것이 가능합니다. 초반 야구기사 작성을 위해 개발되었으나 다른 분야의 기사 또한 활용되고 있습니다.
대용량의 데이터를 빠르고 정확하게 처리할 수 있다는 장점이 있습니다. 리포터나 편집자보다 빠르게 데이터, 잡음 속에서 신호, 즉 유용한 정보를 찾아내는 역할을 하게 될 것입니다. Quakebot 과 같은 유용한 사례 또한 존재하며, 로봇 기자가 사람과 협업하는 사례 또한 많이 보입니다. 영어권에서는 이미 기자의 손을 거치지 않은 알고리즘에 의해서 기사를 내보내고 있고, 빅데이터 분석, 자연어처리, 기계학습 등 다학제적인 접근이 필요합니다.
로봇저널리즘 프레임워크는 데이터 수집에서부터 의미 생성, 기사 작성까지 5단계로 구분됩니다. 첫 번째 데이터 수집의 경우 API, 공공 데이터 등 활용하여 데이터 크롤링, json 형태로 저장하는 단계이며, 그 다음 이벤트 추출의 경우 의미 있는 이벤트 추출 과정, sense making 데이터 해석하는 과정입니다.
중요한 이벤트가 무엇인지 찾아내는 작업은 세 번째, 주요 이벤트 검출 (Key Event Detection) 단계에서 수행합니다. 데이터를 분석해서 의미 있는 데이터의 패턴을 찾아내는 중요한 작업입니다. 예를 들면, 야구 경기의 작은 이벤트 데이터마다 기대승률 변화가 큰 지점(peak-point finding)을 찾고, 이 지점을 고득점으로 점수를 매깁니다(scoring). 이 점수를 바탕으로 중요한 이벤트를 판별할 수 있습니다.
네 번째, 무드 판단 (Mood Detection) 단계에서는 앞에서 찾은 데이터 패턴을 통해 경기의 흐름을 파악합니다. 이렇게 파악한 ‘무드’는 다음 단계에서 뉴스 기사의 분위기를 결정하고, 분위기에 맞는 표현을 만들어주기 위해 사용됩니다.
마지막 단계는 뉴스 기사 생성 (News Article Generation) 단계입니다. 보통은 자연어 생성(Natural Language Generation) 기술로 뉴스 기사를 작성한다고 생각하실 텐데요, 이 기술을 로봇저널리즘에서 현실적으로 활용하기에는 어려움이 있었습니다. 자연어 생성을 하려면 언어 모델(Language Model)을 사용해 다음 단어를 계속 예측해 나가야 하는데, 이러한 방식이 뉴스 기사처럼 완결된 형태의 문장과 단락 구조를 만들기에는 적합하지 않았던 것입니다. 그래서 고안한 다른 방법은, 패턴에 따른 템플릿을 보유하고 있다가 뉴스의 무드에 따라서 해당 템플릿 안에 있는 문장들을 최적화(선택)하여 뉴스를 생성하는 것입니다. 이렇게 템플릿을 사용할 때 예상할 수 있는 문제는 글이 단조로워진다는 점인데, 이를 극복하기 위해 탄력적으로 문장을 배열하여 기사를 생성하고 있습니다.
가중치 매트릭스 (weight matrix) 기법
주식 기사는 항상 대형주 위주로 작성되고 있습니다. 이와 달리 독자의 주식을 중심으로 써주는 ‘개인화된 기사’를 만들어 주면 좋겠다고 생각했습니다. 개인화 및 다양화된 기사를 생성하기 위해서 이벤트 점수(event score)를 상황에 따라 다르게 설정하고자 했고, 이를 위해 가중치 매트릭스(weight matrix)라는 기법을 사용하였습니다.
가중치 매트릭스란, 이벤트의 고유한 가중치를 매트릭스로 구성하고, 이벤트 간의 상대적 중요성을 판단의 기준으로 삼는 방법입니다. 프로야구를 예로 들면, 일반적인 상황에서는 1점 홈런보다 2점 홈런이 중요도가 높습니다 (고정 가중치). 하지만 8회 초 0:0인 상황에서 1점 홈런이 일어난 이벤트와 7:2인 상황에서 이기는 팀의 2점 홈런 이벤트를 비교하면 1점 홈런이 더 중요도가 높을 것입니다 (변동 가중치). 이렇게 이벤트마다 고정 가중치와 변동 가중치를 구성하고, 고정 가중치와 변동 가중치의 곱으로 이벤트 점수를 계산합니다. 점수가 높은 이벤트가 기사의 ‘야마(기자 용어)’가 될 수 있습니다.
이런 식의 접근으로 템플릿 방식의 한계를 극복하고 있습니다. 템플릿에서 용어만 끼워 넣는 게 아니라, 템플릿 안에서도 주요 구성요소를 바꿔갈 수 있습니다. 중요한 이벤트를 토대로 기사 제목을 선정하고, 기사의 중요도를 결정할 수도 있으며, 독자의 컨텍스트에 맞는 기사를 결정해줄 수 있게 됩니다.
독자의 컨텍스트를 고려한 기사 생성
웨어러블 기기의 보편화, 사물 인터넷 발달을 배경으로 이런 태스크가 가능해졌습니다. 기사를 보는 사람의 컨텍스트에 맞게 실시간으로 기사를 생성해주는 것입니다. 예를 들면, 운전 중이라는 시나리오가 있을 수 있습니다. 이런 상황에서는 짧은 길이의 기사를 만들어 줄 수 있습니다.
로봇저널리즘에 대한 사용자 평가
여러 매체에서 로봇저널리즘 알고리즘으로 다양한 튜링 테스트를 수행하고 평가를 내렸습니다. 사실 튜링 테스트가 로봇저널리즘의 평가에 있어 그다지 유의미한 것은 아닙니다. 순수한 자연어 생성이 아니라 템플릿을 활용한 방식이기 때문에, 생성된 뉴스의 문장들이 완성도 있을 수밖에 없기 때문입니다. 그래도 사람들이 응답한 내용에서 흥미로운 점은, 사람이 작성한 기사가 완성도는 더 높지만, 정보량의 측면에서는 로봇이 작성한 기사가 더 높은 점수를 얻었다는 것입니다. 사람의 경우 특정한 정보만을 선택적으로 필터링하여 기사를 작성하기 때문에 상황에 따라 집중하는 정보가 달라지는 반면 인공지능의 경우 알고리즘에 따라 일관되게 선택하기 때문에 위와 같은 결과가 나온 것으로 생각됩니다.
로봇저널리즘의 의의 및 가치
인간사에서 정보 전달의 역사는 매우 깁니다. 인쇄술과 기계의 발달은 정보의 증가와 확산을 이끌었고, 폭발적으로 증가한 정보의 양은 곧 ‘검증된 정보’에 대한 요구로 이어졌습니다. 이것이 바로 저널리즘이 탄생한 배경입니다. 이후 등장한 컴퓨터와 인터넷의 발달은 정보의 홍수 속에서의 저널리즘의 역할을 더욱 대두시켰습니다.
이러한 흐름 속에서 등장한 로봇저널리즘은 중요한 정보를 정확하고 빠르게 전달하고, 개인적인 요구를 고려한 정보 전달, 곧 기사를 개인의 영역으로 가져온다는 점에서 그 가치를 가집니다. 또한, 단순 반복 업무가 요구되는 데이터 기반의 리포트를 알고리즘이 대신 작성함으로써 사람의 불필요한 노동력 소모를 줄일 수 있게 되었습니다.
그러므로 로봇저널리즘은 정보의 홍수 속에서 필요한 정보를 어떻게 잘 전달할 수 있을지에 대한 정보의 전달적 관점에서 그 가치를 가진다고 볼 수 있습니다.
로봇저널리즘의 활용
실제로 로봇저널리즘의 활용되는 예시를 살펴보겠습니다. 지난 19대 대통령 선거 보도를 위해 SBS와 협력하여 개발한 ‘인공지능 로봇 기사’는 선거 개표 시간 동안 총 250여 개의 단순 정보 전달 목적의 기사, 곧 ‘스트레이트 기사’를 생성하여 전달하였습니다. 이 중 SBS에서는 170여 개 기사를 선별하여 발행하였습니다.
이때 생성되는 기사는 미리 여러 개의 텍스트를 작성해두고 그때그때 상황에 맞춰 삽입하는 방식으로 이루어졌습니다. 그런데 실제 발행 시에는 데이터를 포함한 문단은 그대로 둔 채 바로 이 템플릿 문장만 다듬어 전달한 것입니다. 이 과정에서 약 5~8분 정도 소요되었습니다.
인상 깊은 것은 저희가 보도 속도에 중점을 두어 알고리즘을 짰음에도 불구하고 방송국에서는 비교적 시간을 소요하더라도 직접 사람이 개입하여 다듬었다는 것입니다. 곧 로봇은 초안을 제공하고 사람은 이에 더해 가공하는 방식으로 협업을 한 것입니다. 이는 아직 로봇이 사람의 역할을 완전히 대체하지 않았다는 것을 말해줍니다.
저희는 이러한 방식의 협업을 참고하여 PINGS이라는 새로운 시스템을 개발했습니다. 이 기술은 인간과 로봇이 협업하는 방식의 로봇저널리즘 시스템으로 알고리즘이 데이터를 기반으로 먼저 기사의 전체적인 프레임을 제공하면, 인간이 여러 가지 데이터 옵션 등을 선택하여 기사를 완성하는 방식으로 기사를 작성합니다. 즉, 사람이 직접 변동가중치를 조정하여 기사의 강조점과 메시지를 수정하도록 한 것입니다.
텍스트뿐만 아니라 주제에 적합한 배경 이미지를 합성하여 카드 뉴스를 제작하는 새로운 시도도 진행하였습니다. 이때, 텍스트를 읽어주는 내레이션에 경우 네이버의 TTS(Text-To-Speech) 기술을 접목하여 활용하였습니다. 실제 지난 선거 때 이 기술을 사용하여 시도된 SNU 카드 뉴스 로봇은 입력한 정보에 따라 그리고 개인의 별도 설정에 따라 다양한 형태의 카드뉴스를 생성하는 결과를 보여주었습니다.
<대화형 에이전트 - 로봇기자>
대화형 로봇기자
그러나 이러한 기술들이 사용자의 관심을 밀접하게 따라가지 못합니다. 선거에 경우 점차 시청자의 관심이 줄어들고 관심을 가지는 후보자들도 줄어드는 데 반해 로봇의 경우 한번 정해진 알고리즘을 따라 이미 아는 정보도 계속 전달하는 오류가 발생하기 때문입니다.
이를 극복하기 위해 고안한 것이 바로 대화형 로봇 ‘챗봇’입니다. 21대 국회의원 선거 보도를 위해 개발된 챗봇 ‘나래봇’은 키워드를 입력하면 여러 가지 정보를 실시간 대화형식으로 전달하였습니다. 예를 들어 ‘000 후보 당선 확률’을 입력하면 해당 후보의 실시간 득표수와 당선확률을 제시하는 방식입니다. 흥미로운 점은 중간에 서버가 다운되어 챗봇이 대답하지 못한 때도 사람들은 계속해서 질문을 던졌다는 것입니다. 이것을 HCI 용어로는 ‘KaRS framework’라고 합니다. 곧, 사람들이 agent나 AI가 사람이 아닌 걸 알면서도 사회적 행위자로 인식을 하고 이에 따라 마치 사람을 대하는 것처럼 행동하는 것을 말합니다.
앞으로 사용자 의도에 맞게 데이터를 내러티브로 변환하는 지능형 정보 시스템이 대두되는 한편, 알고리즘이 정보 전달 과정에 깊숙이 개입하게 될 것입니다. 또한 개인에게 필요한 정보를 맞춤형으로 전달하게 될 것으로 기대됩니다.
<팩트체킹>
알고리즘 팩트체킹
가짜 뉴스의 범람 문제가 있습니다. 정보의 생성과 확산이 빨라지고 정보를 유통할 수 있는 채널이 다양해지면서 가짜뉴스가 사회적인 문제가 되고 있습니다. 따라서 뉴스 기사의 팩트체크 필요성이 대두되고 있습니다. 그러나 가짜뉴스는 정의하기가 어렵습니다. 단순히 정보가 틀렸다고 해서 가짜뉴스라고 부르지는 않습니다. 칼로 바와 피셔(Karl ova & Fisher)에 따르면 가짜뉴스는 기만성을 가져야 하는데, 이는 사람을 의도적으로 속이고자 하는 속성을 말합니다.
펙트체킹 알고리즘은 정보 생성자의 의도까지 파악하기는 어렵습니다. 그래서 Fact Verification으로 방향이 맞춰지고 있습니다.
팩트체킹의 세 가지 접근 방법
- 전문가 팩트체킹
- 크라우드소싱 팩트체킹
- 알고리즘 팩트체킹 = Automatic Fact Checking
Claim Buster 논의
사실적 주장이 무엇인지 검증하는 기술로서 이미 검증된 주장 저장소와의 비교를 통해 이루어집니다. 이는 수치에 근거한 사실을 말합니다.
한국어 팩트체크 데이터 세트 구축
현재 한글 기반의 팩트체킹을 위한 데이터가 없습니다. 우리 연구팀에서는 데이터를 2만 개 구축했습니다. 올해는 8만 개 더 만들 예정입니다.
각 주장 당 5개의 근거 문장을 만들고, 이것을 이용해서 베이스라인 모델을 만듭니다. 베이스라인 모델의 학습 단계에서는 데이터 세트는 문장, 참/거짓 여부, 근거의 위치가 기록되어 있습니다. 판단을 위한 모델을 만듭니다. 그 모델을 이용해서 위키피디아 문서에서 근거 문장을 자동으로 찾아내서 참/거짓 판단하게 됩니다. 문장을 베이스라인 모델에 넣어서 참/거짓을 예측하게 됩니다. 베이스라인 모델의 정확도 측정 결과, 판단 정확도(BLEU)가 63.84% 나왔습니다. 데이터 세트가 작았지만, 레퍼런스로 찾는 위키피디아도 작았습니다. 그래서 판단 정확도가 높게 나온 거고, 위키피디아 전체를 대상으로 하면 많이 떨어질 것으로 예상됩니다.
팩트체킹 연구의 의의
새로운 시도를 하는 연구라서 가능성이 많이 있지만, 한계도 많이 있습니다. 데이터 세트를 구축해서 다른 연구자도 이런 연구를 할 수 있도록 방향이 마련되어 있습니다. 본 연구를 통해 인공지능 기반 팩트체크 실현화 가능성을 확인할 수 있었습니다.
그러나 사실, 한계가 더 많은 단계입니다. 주장의 의미를 파악하는 팩트체킹이라기 보다는 기존 데이터 아카이브를 통해 주장이 확인되는지를 검증하는 팩트 검증에 해당합니다. 따라서 팩트 검증의 소스가 되는 신뢰도 있는 레퍼런스 데이터베이스가 확보되어야 한다는 어려움이 있습니다. 빅 카인즈와 같은 뉴스의 경우 역시 신뢰도에 의문이 듭니다. 예를 들어, “AZ 백신이 혈전을 일으켰다”는 것에 대해 검증할 수가 없습니다. 현실적인 어려움이 있습니다.
질문 1: 학생 1
우리나라 언론을 다룰 때 있어서 전파성을 빼놓을 수 없습니다. 말씀하신 스포츠 기사의 경우 가치 중립적이기때문에 전파성의 개입이 적다고 보는데, 칼럼이나 사설 같은 언론사의 전파적 관점이 반영되는 글이 많습니다. 로봇저널리즘이 한국의 언론 전파성에 영향을 준다며 어떻게 흘러갈지, AI가 자동으로 기사를 생성하는 방향으로 갈게 될지, 아니면 객관적 사실에 맞춘 걸로 방향이 흘러갈지가 궁금합니다.
답 1
전파성을 가지고 알고리즘을 만들어 텍스트를 형성하면 전파성이 강화됩니다. 다만, 이 기술이 이것을 구현하는 것은 매우 어려울 거라 생각하고, 이 기술이 나온다고 해서 전파성이 바뀔 거라고 보기엔 매우 어렵습니다. 기사가 편향적으로 가는 것을 막기 위해 정보 시각화와 같은 방법으로 기사가 얼마나 편향 되어있는지 보여주는 연구들이 있는데, 이와 같이 사용자가 자신이 지금 어떻게 정보를 소비하고 있는지 깨닫게 하는게 전파성을 극복하는데 더 큰 도움이 될 것이라고 봅니다.
질문 2: 학생 2
전반적인 강의를 보니, 개인화된 언론을 얘기하시는 것으로 느껴집니다. 개인화된 언론으로 갔을 때 지금 언론이 하고 있는 역할이 궁극적으로 어떻게 변해야 하는지 궁금합니다. 제 질문은 앞선 질문과 관련이 있는데, 얼마전 기사에서 인공지능과 변호사가 대결을 하여 인공지능이 매우 높은 점수로 이겼습니다. 개인적으로는 객관적 판단에 있어서는 인간이 배제되어야 한다고 생각하고, 언론은 객관적이어야 하는데 그럼 언론의 역할이 미래에 바뀌어야 하는건지, 이에 대해 교수님께서 가지고 계신 생각이 궁금합니다.
답 2
기본적으로 알고리즘이 기자의 역할을 대신하진 않을 거라고 봅니다. 새로운 기술을 활용한다면, 기자들이 할 수 있는 역할이 커지고, 독자들이 접하는 기사의 폭도 넓어질 거라고 봅니다. 그러나 앞선 질문과 지금의 질문도 이해는 갑니다. 현재 언론의 신뢰도와 같은 문제들이 있기 때문에 이런 알고리즘이 변화를 가져올 수 있을 거라고는 봅니다. 기사의 역할이나 방향 등을 결정하는 것은 기자들의 역할이라고 봅니다. 다만, 포털이 등장한 후에 기자들이 굉장히 ‘자극적’이고, 주관적인 표현이지만 ‘편파적’인 부분들이 생겨났고 이는 포털의 영향이 크다고 생각합니다. 포털에서의 클릭 수에 의해 기사의 가치가 평가가 되니까 다른 기사를 요약하거나, 궁금증을 일으키는 데에만 집중하여 클릭 수를 높이려는 기사들이 남발되고 있습니다. 이런 현상은 연예에서 정치까지 확대되고 있습니다. 알고리즘의 기여를 생각했을 때, 기자의 역할이 달라지는 게 아니라, 기자의 본분을 지키는 방향으로 가도록 돕지 않을까 합니다.
질문 3: 남주한 교수님
현재 우리나라의 기사와 언론들이 정치적인 성향을 다분히 띠고 있습니다. 각 언론사에서 이 알고리즘을 사용할 때에, 자신들에게 맞게 사용할 거 같은데, 이 경우 좀 더 편향성이 증폭되지 않을까 우려됩니다. 또한, 개인들도 자신이 보고 싶은 기사만 보게 될 것 같습니다. 결국 기술을 어떻게 사용할까의 문제긴 하지만, 이러한 부분들을 어떻게 막을 수 있을까요?
답 3
실제로 한 기자가 연락하여 같은 질문을 저에게 한 적이 있습니다. 그때 제가 한 답변이 ‘사람이 만들어낸 편향성’은 어떻게 생각 하냐고 역으로 질문 드렸습니다. 계속 나오는 얘기지만, 인간 기자가 만들어내는 편향성도 굉장히 위험합니다. AI가 등장하면서 등장하는 많은 이슈들 중 언론, 미디어 분야에서도 알고리즘의 공정성에 대해 많이 얘기하고 있습니다. 그리고, 알고리즘이 어떻게 운영되고 있는지 파악해야 한다는 움직임이 커지고 있습니다. 즉, Data literacy와 관련된 것인데, SNS에서도 마찬가지지만 이 부분이 좀더 널리 퍼져야 한다고 생각합니다.
질문 4: 학생 3
1. 저널리즘의 역할이나 균형을 생각해봤을 때, 정보 전달뿐만 아니라 공동의 관심사에서 논평과 해설도 중요한 것 같습니다. 개인의 가치 판단이 개입하는 부분에 있어서, 알고리즘에 가치를 더하는 것에 우려를 가지고 있는데, 교수님은 어떤 생각을 가지시는지 궁금합니다.
2. 요즘 뉴스 소비자들과 독자들이 뉴스와 미디어를 소비하는 형태가 많이 바뀌고 있는데, 넥스트 저널리즘은 어떤 변화를 가질 필요가 있는지 궁금합니다.
답 4
1. 저도 연구 처음부터 고민해온 것입니다. “결과에 가치판단을 가지지 않는다.” 가 제 기준이다. 사실 정치보다 경제, 특히 증시부분에 중점을 둘 때 더 와 닿을 것 같은데, 어떤 주식이 굉장히 성장하고 있기 때문에 매매하는 것을 추천한다고 할 수 있는데, 이것이 굉장히 위험합니다. Information Visualizatoin은 판단을 돕는 도구이지, 판단을 내려주는 것은 아닙니다. 따라서 가치판단 부분을 가능한한 배제하고, 이것이 사람들이 판단을 내리는데 도움을 주길 바랍니다.
2. HCI 수업에서 ‘미디어의 미래’라는 주제로 수업 중입니다. 미디어의 미래는 ‘어떤 정보를 어떻게 전달 하느냐’도 중요하지만, ‘어떤 기술들이 어떻게 활용될 지’도 매우 중요하다고 봅니다.
재미있는 사례를 하나 들어드릴게요. 챗봇 연구를 한다고 했었는데, 챗봇이 Moderator 역할을 하는 것에 대해 연구를 했었습니다. 즉, 챗봇이 누구는 말을 많이 하고, 누구는 적게 하는데, 말을 많이 한 사람의 말을 어떤 내용인지 파악, 정리하고 말을 적게 한 사람에게 ‘너는 어떻게 생각해?’라는 식으로 모더레이팅을 하는 것입니다. 이 연구에 참여한 학생이 재밌는 아이디어로 CHI에 연구를 제출했습니다. 미팅에서 상대와 뻘쭘해서 대화가 잘 안될 때 상대방의 인스타와 같은 SNS에서 정보를 수집해서 ‘상대가 좋아하는 뮤지션’과 같이 모데레이션을 해주는 챗봇인 ‘블라블라봇’을 연구로 제시하였습니다. 실제로 미디어 환경에서 이런 식의 접근이 있을 것 같습니다. 중간에 AI Agent들이 정보를 매개하거나 큐레이션 해주는 것이 있을 것 같습니다. 즉, 로봇저널리즘처럼 데이터를 가공하는 것보다도 정보를 소개해주는 것에 사용되는 것이 큰 의미를 가질 것 같습니다.
질문 5: 학생 4
기존의 로봇저널리즘은 기존에 있던 데이터를 기반으로 뉴스를 만들어주는 것인데, 이것은 결국 정보를 가지고 기사를 재생산하는 것과 비슷하다고 보여집니다. 마치 현재 연예분야에서 기사를 찍어내는 것과 같이, 공정성과는 거리가 먼 느낌이 강하게 듭니다. 그리고, 로봇이 기사를 만들고, 사람이 다시 발행한다고 하면 기사의 주체는 누가 되는 것이고, 로봇이 생산한 기사라고 표기하는 게 맞을지도 궁금합니다.
답 5
연예뉴스를 마구 찍어내는 로봇이 실제로 있었습니다. 인스타그램과 같은 연예인의 SNS에 방문해 특정 연예인이 무엇을 했다는 내용의 기사를 찍어내는 Abusing Machine이었습니다. 로봇저널리즘이 Abusing Machine으로써 활용될 수도 있지 않냐는 의견이 있었고, 실제로 그런 부분도 있습니다. 윤리와 같은 부분은 중요하기 때문에, 저희도 처음에 말했던 것처럼 어떤 정보를 중요하게 생각하는지 결정하게 됩니다.
저희는 기사를 재생산하는 것이 아니라, 데이터를 가지고 기사를 작성하는 것입니다. 즉, 기존의 데이터를 그저 복사, 붙여넣기 하는 것이 아니라, 데이터 속에서 의미를 도출하는 데 중점을 두고 있습니다. 아마도 이 부분에 초점을 두어서 계속해서 공정성과 관련된 문제들을 돌파해 가야하지 않을까 생각합니다.
기사를 누가 썼는지를 밝히는 것은 곧, 책임 소재를 밝히기 위한 것이다. 로봇이 썼으면 로봇이 썼다고 해야합니다. 기자가 이름을 밝히는 건 그 글에 책임을 지겠다는 거고, 협업을 헀으면 로봇과 기자 자신의 이름도 모두 밝혀야한다고 봅니다.
질문 6: 남주한 교수님
교수님이 속해 있는 과는 언론학과인데, 하시는 연구는 자연어 처리분야 같고, 이는 CS연구 같은데, 현재 연구실에 학생들이 어떻게 구성되어 있는지 궁금합니다. 문과 출신 학생들은 어떻게 지도하는지도 궁금합니다.
답 6
저희 연구실은 언론학과 학생만 있는 건 아니고, 전공별로 보면 이공계는 3분의 1, 사회과학은 50%, 나머지는 디자인과도 있고, 농대도 있고, 굉장히 다양합니다. 저희 학생들은 기본적으로 데이터를 다루는 기술은 갖춰야 해서, Social Computing 수업을 듣는데, Python Language에 익숙해지고, NLP하고, 좋은 라이브러리를 활용해서 데이터를 분석하는 것을 배웁니다. 이 분야의 백그라운드 지식 없이도, 관심을 가지며 모두 잘하고 있습니다. 한 학생도 이 분야의 지식을 전혀 모르는 상태에서 Python, NLP를 배웠는데, 시작은 버벅대면서 공부하다가 지금은 데이터 분석 쪽으로 굉장히 잘하는 학생이 되었습니다.
요즘은 도구가 좋아져서 Computational method를 문과 학생들도 활용하는데 전혀 문제가 없다고 생각합니다.
의견: 남주한 교수님
저도 최근에 보면 사회과학 쪽도 그렇고, 다양한 툴을 많이 쓰는 것 같습니다. 예시로, 불어교육학과에서도 자연어 처리 기반 연구하시는 분들이 계셨습니다. 코딩이나 기술적인 부분을 활용하는 건 어떠한 학과를 가도 다 해야 하는 것 같습니다.
의견: 이준환 교수님
저는 카네기멜론 대학교를 나왔는데, 그 당시에도 카네기멜론의 영문과는 프로그래밍을 잘해서 텍스트 분석을 하고 있었습니다. 현재는 모든 학과가 다 기술적인 부분을 다뤄야하는 그런 시대가 된 듯합니다.
첨부파일 |
---|
- 다음
- [GSCT 콜로키움] 05.18 (화) | 노승림 (숙명여대 문화행정학과 교수)
- 2021-06-02
- 이전
- [GSCT 콜로키움] 05.11 (화) | 한경순 (건국대 조형예술학과 교수)
- 2021-05-20