본문 바로가기

2023/164호(11월)

[Library & People] 도서관은 AI가 만들어낸 잘못된 정보에 맞서 싸울 수 있다.

인공지능의 급속한 발전은 지난 몇 년 동안 피할 수 없는 대화의 주제였으며, 이는 매우 타당한 이유가 있습니다. 인공지능의 사용과 잠재적인 오용은 기술 및 학계로부터 여행 및 관광 산업에 이르기까지 거의 모든 분야에 영향을 미칩니다.

단점은 이 모든 멋진 일들을 가능하게 하는 동일한 도구가 허위 정보 캠페인에 참여하고 혐오 발언을 퍼뜨리는 악의적인 행위자들에 의해 사용될 수 있다는 것입니다. 다행히도 우리 모두는 사실을 확인하고 허위 정보에 대응하는 방법을 배울 수 있으며, 도서관이 중요한 역할을 할 수 있습니다.

인공지능은 사실과 허구를 구분할 수 없다. 읽는 모든 것을 믿을 수는 없으며, 특히 인공지능이 생성한 콘텐츠는 더욱 그렇습니다때로는 자신의 정치적 성향을 지지하는 잘못된 정보를 퍼뜨리려는 악의적인 행위자가 콘텐츠를 유도하거나 유포하기 때문입니다. 그러나 대부분의 경우, 그 책임은 AI 모델 자체에 있습니다. Melissa Heikkilä MIT 테크놀로지 리뷰 기사에서 언급한 것처럼, GPT-3.5  GPT-4(OpenAI ChatGPT 챗봇의 기반이 되는)와 같은 대규모 언어 모델은 사실과 허구를 구분할 수 없습니다.

"이러한 대규모 언어 모델의 마법이자 위험은 정확성이라는 착각에 있습니다. 인공지능이 생성하는 문장은 올바른 순서로 올바른 종류의 단어를 사용하여 올바르게 보입니다. 하지만 AI는 그 문장이 무엇을 의미하는지 알지 못합니다. 이러한 모델은 문장에서 가장 가능성이 높은 다음 단어를 예측하는 방식으로 작동합니다. 어떤 정보가 맞는지 틀린지 전혀 알지 못하며, 사실이 아닌 경우에도 자신 있게 정보를 사실로 제시합니다."

 

 

전 세계 각국 정부는 인공지능과 같은 신흥 기술의 무분별한 사용으로 인한 인권 위협에 대해 경각심을 갖고 있습니다예를 들어, 미국의 경우, 바이든 행정부는 안전하고 안전하며 투명한 AI 기술 개발을 위해 아마존, 앤트로픽, 구글, 인플렉션, 메타, 마이크로소프트, 오픈AI로부터 자발적인 약속을 확보했습니다.

백악관 팩트시트에 따르면 이러한 자벌적 약속에는 아래의 내용이 포함되어 있습니다:

- 이들 기업은 워터마킹 시스템과 같은 강력한 기술 메커니즘을 개발하여 사용자들이 콘텐츠가 언제 AI로 생성되었는지 알 수 있도록 할 것을 약속했습니다. 이러한 조치는 AI를 통한 창의성이 번창할 수 있도록 지원하지만 사기와 속임수의 위험은 줄여줄 것 입니다.

- 각 기업은 AI 시스템의 기능, 한계, 적절하고 부적절한 사용 영역을 공개적으로 보고할 것을 약속했습니다. 이 보고서는 보안 위험과 공정성 및 편견에 미치는 영향과 같은 사회적 위험을 모두 다룹니다.

-  이들 기업은 유해한 편견과 차별을 방지하고 개인 정보를 보호하는 등 AI 시스템이 초래할 수 있는 사회적 위험에 대한 연구에 우선순위를 두기로 약속합니다. AI의 실적은 이러한 위험의 교활함과 만연함을 보여주며, 기업들은 이러한 위험을 완화하는 AI를 출시할 것을 약속했습니다.

 

사서의 역할이 중요한 이유

우리는 사서가 미디어 리터러시를 위해 싸우고 허위 정보에 맞서 싸우는 데 중요한 역할을 해야 한다는 생각을 굳게 믿고 있습니다. 지역 신문, TV, 온라인 콘텐츠, 소셜 미디어 등 어디에서 정보를 얻든 우리가 소비하는 뉴스는 우리의 신념, 태도, 인식을 형성할 수 있습니다. 민주주의 사회가 제대로 작동하려면 어떤 정보원이 진실하고 정확하며 편견이 없는지 식별할 수 있는 사람이 필수적입니다.

뉴스 리터러시 프로젝트의 창립자며 오랫동안 저널리스트로 활동한 앨런 밀러는 우리는 공통의 내러티브, 공유된 현실에 대한 감각을 상실했습니다. 우리는 사실이 무엇인가? 를 모를 뿐만 아니라 사실이란 무엇인지? 에 대해서도 모르고 있습니다." 다행히도 도서관은 워크숍과 기타 리소스를 통해 사실 확인 기술과 미디어 노하우를 제공함으로써 잘못된 정보 확산의 시대에 미디어 리터러시를 지원할 수 있는 이상적인 위치에 있습니다 그러나 첫 번째 과제는 AI가 생성한 콘텐츠와 사람이 만든 콘텐츠를 구분할 수 있어야 한다는 것입니다.  

 

AI로 생성된 텍스트를 가장 잘 식별하는 것은 AI 그 자체일 날이 올지도 모릅니다.

Anna Singh AI 기반 사실 확인 도구 "방대한 양의 데이터를 신속하게 분석하고 패턴을 식별하며 뉴스 기사, 소셜 미디어 게시물 및 기타 형태의 콘텐츠에 담긴 주장의 진위를 판단할 수 있는 잠재력을 가지고 있다"고 주장합니다핵심 단어는 가능성입니다. Singh 은 현 세대의 AI 도구에는 한계가 있다는 점을 인정합니다.  

AI 알고리즘은 학습된 데이터만큼만 우수하며, 학습 데이터의 편향성이 AI 시스템에 의해 지속될 수 있는 위험이 있습니다. 또한 AI 기반 사실 확인 도구는 특히 풍자, 유머 또는 문화적 언급과 관련하여 인간 언어의 뉘앙스와 복잡성을 이해하는 데 어려움을 겪을 수 있습니다.

Singh 은 이러한 문제를 극복하기 위해서는 AI 팩트체커를 인간과 협력하여 개발하고 개선하는 것이 필수적이라고 말한다. 생성형 AI의 최강자 조차도 오류가 있음이 입증되었다. 올해 1, OpenAI는 사람이 작성한 텍스트와 다양한 업체의 AI가 작성한 텍스트를 구분할 수 있는 '분류자'를 학습시켰다고 대대적으로 발표했으나 6개월 후, OpenAI는 업데이트된 블로그 게시물에서 패배를 인정했습니다:

2023 7 20일부로 AI 분류자는 낮은 정확도로 인해 더 이상 사용하지 않습니다. 트위터는 피드백을 통합하기 위해 노력하고 있으며, 현재 텍스트에 대한 보다 효과적인 출처 증명 기술을 연구하고 있으며, 오디오 또는 시각 콘텐츠가 AI로 생성되었는지 사용자가 이해할 수 있는 메커니즘을 개발 및 배포하기 위해 노력하고 있습니다.

 

호기심 많은 태도는 허위 정보에 대응할 수 있다.

완전 자동화된 사실 확인 도구가 ChatGPT와 같은 생성형 AI 봇의 빠른 개발 속도를 따라잡을 수 있을 때까지는 인간 독자가 비판적 사고 능력을 개발해야 합니다. '진짜' 텍스트와 '가짜' 텍스트를 구분하고 둘 다에 포함된 허위 정보를 식별하기 위해 AI 기술이나 컴퓨터 언어학에 대한 깊은 기술적 전문 지식이 없어도 됩니다.

도서관은 이용자에게 AI 카피와 진짜 글을 구별하는 정보를 제공함으로써 미디어 리터러시 및 디지털 리터러시 서비스를 강화하는 것을 고려해야 합니다. 카피리크스, 새플링, 윈스턴 등 고객이 AI로 생성된 텍스트를 감지하는 데 사용할 수 있는 온라인 도구가 많이 있습니다. 그러나 대규모 언어 모델의 세대가 거듭될수록 봇이 이러한 앱을 더 잘 속일 수 있게 됩니다.

프리랜서 저널리스트인 알렉스 오브라이언은 BBC Future Now 블로그의 기사에서 다음과 같이 언급합니다:

"인공지능으로 작성된 글이 확산됨에 따라 인간이 직면하게 될 진정한 도전은 아마도 기술에만 의존할 수 없다는 점일 것입니다. 따라서 정보에 대한 회의적이고 호기심 많은 태도, 그리고 정보의 진실성을 일상적으로 테스트하는 것이 중요합니다. 허위 정보와의 전쟁은 이미 자동화된 도구만으로는 충분하지 않으며 사람이 필요하다는 것을 보여주었습니다."

오브라이언은 다음과 같은 봇 탐지에 대한 몇 가지 팁도 제공합니다.

▶ 출처를 검증하세요: "출처를 확인하고 확인할 수 있나요? 서면과 시각적 증거를 모두 확인할 수 있습니까?" 오브라이언은 다른 평판이 좋은 출처에서 교차 확인 및 뒷받침 자료를 찾을 것을 제안합니다.

▶ 텍스트를 검토하세요: 맞춤법, 문법, 구두점을 자세히 살펴보세요. 오브라이언은 "철자와 문법이 출판물이나 글을 쓴 저자에 적합하지 않은 경우, 그 이유를 물어보세요."라고 말합니다. 존재하지 않는 사람이나 기관을 인용하는 카피는 오래된 참고 자료와 마찬가지로 죽은 정보입니다.  AI는 액세스할 수 있는 정보가 아직 제한되어 있으며 최신 뉴스의 경우 최신 정보가 아닐 수 있습니다.

▶ 어조를 확인하세요: AI가 생성한 텍스트는 사람이 쓴 것처럼 읽히지 않는 경우가 많습니다. 비뚤어진 언어 패턴이나 어조 또는 목소리의 갑작스러운 변화가 있을 수 있습니다진짜와 가짜 텍스트 웹사이트를 통해 사람이 쓴 글과 AI 모델이 만든 글을 구별하는 능력을 테스트해 볼 수 있습니다.

 

도서관은 신뢰할 수 있는 미디어 콘텐츠를 제공할 수 있다.

비판적 사고와 미디어 리터러시 능력은 민주적인 사회에서 필수적인 요소입니다. 강력한 제도를 뒷받침하고, 사회가 권력자에게 책임을 물을 수 있게 하며, 불평등을 줄이는 데 도움이 되기 때문입니다사서는 도서관 이용자가 사람이 쓴 글과 인공지능이 생성한 텍스트를 구별할 수 있도록 도울 뿐만 아니라, 독자에게 신문과 잡지의 디지털 에디션을 제공하는 PressReader 같은 플랫폼을 통해 신뢰할 수 있는 저널리즘에 대한 무료 액세스를 제공할 수도 있습니다. 이용자들이 다양한 정치적 스펙트럼의 아이디어와 정보를 접하는 것은 중요하며, 잘못된 정보가 넘쳐나는 세상에서 진실을 찾을 수 있도록 하는 것도 마찬가지로 중요합니다.

 

원본출처: https://blog.pressreader.com/libraries-institutions/libraries-can-fight-ai-generated-misinformation-with-media-literacy-education

편집위원: 김한동, 학술정보지원팀 정리실