한국언론진흥재단 'AI와 언론의 혁신' 컨퍼런스 찰리 베켓 교수 강연
"AI 활용한다면 인간만이 할 수 있는 언론인의 업무에 집중할 수 있어"
[미디어펜=이다빈 기자]찰리 베켓 런던정치경제대학교 미디어 커뮤니케이션학과 교수는 생성형 AI가 저널리즘에 본격 도입됨에 따라 언론이 대중의 관심 밖에 나는 것을 경계하고 인간적인 면모를 더욱 강조해 건전한 정보 환경을 조성하는 것이 언론인의 역할이라고 강조했다.

   
▲ 한국언론진흥재단이 9일 한국프레스센터에서 진행한 'AI와 언론의 혁신' 컨퍼런스에서 찰리 베켓 런던 정치경제대학교 미디어 커뮤니케이션학과 교수가 '생성형 AI와 저널리즘'을 주제로 강연을 하고 있다./사진=미디어펜 이다빈 기자


한국언론진흥재단이 9일 서울 중구 한국프레스센터에서 'AI와 언론의 혁신'을 주제로 개최한 2023 KPF 저널리즘 컨퍼런스에서 찰리 베켓 교수는 '생성형 AI와 저널리즘'에 대한 주제 강연을 통해 이와 같이 말했다.

베켓 교수는 "현재 아태 지역에서는 대만과 한국 등에서 수많은 선거가 일어나고 있고 우리는 정치에 있어 건전한 정보 환경을 조성해야 하지만 그것이 쉽지 않은 상황"이라며 "민주주의와 정치에 대해 위험이 있다"고 현재 언론 환경을 진단했다. 

이어 "현재 변화가 긍정적으로 작용할 수 있다. 창의적이고 다양한 포맷으로 다양한 사람에게 도달할 수 있고 저널리즘에 전체적으로 네트워크가 형성되면서 압력이 가해지고 AI와 함께 변화가 도래하고 있다"며 "생성형 AI에 있어서 사용하기 쉽다는 것은 '게임체인저'다. 이미 많은 언론사들이 이와 같은 새로운 기술을 다수 도입했고 앞으로도 더 많이 AI를 활용할 것이라는 답변을 내놓았다"고 설명했다.

베켓 교수는 생성형 AI 도입이 업계에 가져올 수 있는 주요 리스크로 몇 가지를 꼽았다. 

그는 "일반적인 리스크로 생성형 AI가 오용, 남용될 수 있으며 이는 생성형 AI가 한계가 있다는 것을 파악하지 못 했을 때 발생한다. 데이터 자체가 서양 중심, 영어 중심이며 내용 또한 인종 등에서 편향이 있다"며 "알고리즘 트레이닝에 있어 편향이 있으면 답에도 이것이 반영되며 이와 같은 리스크는 언론 뿐만 아니라 모든 섹터에 걸쳐서 전반적으로 적용되는 문제"라고 말했다.

두 번째 리스크로는 보다 언론 업계에 국한된 리스크로 '테크 의존성'을 꼽았다. 

그는 "'중재자의 제거'라고 해석을 할 수있는 리스크로 새로운 기술이 만들어짐에 따라서 시민들이 정보를 얻기 위해 언론에 접근 할 필요가 없어졌다"며 "혼자 정보를 알아 볼 수 있고 뉴스를 볼 필요가 없으며 이는 챗gpt가 나오면서 심화되고 악화되는 문제"라고 강조했다. 그는 "챗gpt는 구글과 달리 뉴스의 링크조차 걸어주지 않고 '탈중개화'가 가속되면서 언론이 대중 관심 밖에 있을 수 있다"고 지적했다.

세 번째 리스크로는 실무 언론인으로서 생성형 AI 실무에 대한 위험을 언급했다.

베켓 교수는 "이는 품질에 대한 위험으로 저품질의 기사를 써낼 수 있으며 이와 같은 품질 저하는 심각한 문제"라며 "비즈니스 모델 자체가 위험할 수 있고 가장 위험한 것은 언론이 잊혀지고 후퇴되는 것"이라고 말했다. 그러면서도 "판단 능력을 가진 인간 언론인은 생성형 AI가 필요 없다고 생각하지 말고 비서를 두는 것처럼 번역 등의 툴들을 더 잘 활용해야 하고 개인 뿐만아니라 조직 차원에서도 신중해야 한다"고 강조했다.

다음으로 베켓 교수는 생성형 AI가 언론 업계에 불러오게 될 다양한 기회와 가능성에 대해서도 설명했다.

첫 번째로 '효율성'을 들며 "AI 툴로 시간을 절약하고 노력을 줄여서 다른 곳에 쓸 수 있다. 언론인들이 활용할 수 있는 많은 툴들이 새로 만들어지고 있다"며 "특히 리포맷팅하는 기술은 이미 활용이 되고 있다"고 말했다. 

그는 "고객 유형에 따라 자동적으로 포맷팅을 해 오전에는 포인트 글로 메세지를 전달하고 점심에는 좀 더 많은 내용에 영상 추가할 수 있으며 저녁에는 훨씬 더 풍부한 컨텐츠들을 상황에 맞게 리포맷팅 해줄 수 있다"며 "고객들은 뉴스가 너무 많다고 느껴질 수 있는데 거기에 맞게끔 뉴스 소비 행태에 맞춰 리포맷팅하는 것이 필요하다"고 부연했다.

또 챗봇이 허위 정보에 대한 대항으로 좋은 대안이 될 수 있다고 설명했다. 그는 "허위정보에 대항하고 싶으면 팩트 체킹이 필요하며 내 소스가 뭔지를 판단 해야한다"며 "언론인이 할 수 있는 제일 좋은 방식은 나 자체가 투명하고 신뢰 받을 수 있는 소스로 자리 매김하는 것"이라고 강조했다.

마지막으로 우리가 생성형 AI를 적절히 활용한다면 효율성과 효과성이 높아지며 깊이 있는 인간의 면모를 담은 언론이 될 수 있다고 했다. 

베켓 교수는 "더욱 중요해지는 것은 인간적인 면모"라며 "전문 기사, 탐사 보도 등으로 인간성이 강화돼야 하는 것이 중요하다"고 말했다. 그는 "인간만이 가진 특성으로 언론인은 판단을 할 수 있다. AI를 활용한다면 인간 언론인들이 하는 것을 더 잘할 수 있게 도울 수 있다"며 "보도국에 갇혀 현실 세계와 단절되는 경우가 있는데 AI가 이를 대신 해줄 수 있다면 인간만이 할 수 있는 언론인의 업무에 집중할 수 있을 것"이라고 덧붙였다.
[미디어펜=이다빈 기자] ▶다른기사보기