데이터 라벨링 상담 예약

AI 프로젝트를 위한 고품질 데이터를 활용하세요
특정 요구 사항에 맞는 맞춤형 워크플로
도메인 지식을 갖춘 전문가 어노테이터
정확한 결과를 위한 신뢰할 수 있는 QA
AI 데이터 라벨링을 최적화하려면 지금 상담을 예약하세요 >
상담 예약
블로그로 돌아가기
/
Text Link
This is some text inside of a div block.
/
미세 조정된 LLM으로 허위 정보 및 가짜 뉴스 근절

미세 조정된 LLM으로 허위 정보 및 가짜 뉴스 근절

3.14.2024

잘못된 정보와 가짜 뉴스는 최근 몇 년 동안 주요 사회적 문제로 대두되고 있습니다.소셜 미디어의 등장으로 허위 또는 오해의 소지가 있는 콘텐츠가 급속히 확산되고 때로는 위험한 결과를 초래하기도 합니다.GPT-3 같은 대규모 언어 모델 (LLM) 은 잘못된 정보를 근절하는 데 도움이 될 수 있지만 신중하게 구현하지 않으면 위험을 초래할 수 있습니다.LLM을 적용하여 이 어려운 문제의 미묘한 차이를 고려하면서 잘못된 정보를 탐지하고 완화할 수 있는 방법은 다음과 같습니다.

사실 확인 및 증거 기반 추론을 위한 LLM 사용

LLM은 사실과 증거에 대해 추론하는 놀라운 능력을 보여주었습니다.Anthropic, Allen Institute for AI 등의 연구 결과에 따르면 LLM은 사실상의 불일치를 식별하고 증거를 기반으로 주장의 진실성을 평가하며 결론에 대한 근거를 제시할 수 있습니다.이러한 역량은 LLM이 대규모 데이터 세트를 교육하여 상당한 세계 지식을 제공한 데서 비롯됩니다.

특히 LLM은 다음과 같은 몇 가지 주요 방법으로 사실 확인을 자동화하고 개선하는 데 도움이 될 수 있습니다.

  • 클레임 검증 - 주장이 주어지면 신뢰할 수 있는 출처에서 모순되거나 확증되는 증거를 찾아 그 진위를 판단하십시오.
  • 인용 출처 - 주장에 대한 판단을 내릴 때 결론을 정당화하기 위해 관련 인용문을 제공하십시오.이렇게 하면 투명성이 향상됩니다.
  • 불일치 식별 - 개별 진술이나 증거에 모순되는 정보가 포함된 경우 이를 인식합니다.
  • 증거의 질 평가 - 저자의 전문 지식 및 데이터 최신성과 같은 특징을 기반으로 다양한 출처와 사실의 신뢰성을 판단합니다.
  • 확률론적 추론 - 이분법적 참/거짓 결론 대신 근거를 기반으로 주장이 사실일 가능성을 평가하는 신뢰도 점수를 부여하십시오.

연구원은 LLM을 법원적이고 정직하며 유용한 사실 확인 파트너로 만드는 기술을 계속 개발해야 합니다.하지만 이들의 고급 추론 능력은 인터넷 허위의 재앙을 물리칠 가능성을 보여줍니다.

잘못된 정보 증폭 완화

소셜 미디어가 악화시키는 또 다른 주요 문제는 잘못된 정보의 증폭입니다.허위 주장이 드러나더라도 사실 확인을 통해 확산을 억제하기 전에 플랫폼 알고리즘이 이를 널리 추천하는 경우가 많습니다.이로 인해 잘못된 정보가 수많은 시청자에게 전달됩니다.

LLM은 다음과 같은 몇 가지 방법으로 증폭을 줄이는 데 도움이 될 수 있습니다.

  • 피해 가능성 등급 - 주장이 밝혀지기 전에 입소문이 날 경우 발생할 수 있는 사회적 악영향을 추정하십시오.허위 가능성이 있고 바이러스 가능성이 높은 것으로 판단된 클레임은 비활성화되거나 신고될 수 있습니다.
  • 스프레드 둔화 - 잘못된 정보일 가능성이 있는 것으로 간주되는 클레임에 대해서는 적절한 사실 확인이 이루어질 때까지 해당 범위와 바이러스성을 일시적으로 제한합니다.이렇게 하면 증폭이 “느려집니다”.
  • 검토 지침 - 잘못된 정보일 가능성이 있는 정보를 표시하여 의심스러운 콘텐츠를 팩트 체커에게 더 빠르게 알릴 수 있습니다.
  • 밸런싱 권장 사항 - 플랫폼의 추천 엔진은 편향된 관점을 줄이기 위해 관련 사실 확인 또는 검증된 정보를 제안함으로써 허위 주장의 균형을 맞출 수 있습니다.

이러한 기능을 소셜 플랫폼에 신중하게 구축하면 표현의 자유를 유지하면서 잘못된 정보의 전이를 크게 줄일 수 있습니다.

당면 과제 및 고려 사항

LLM은 가짜 뉴스를 근절할 수 있는 엄청난 잠재력을 가지고 있지만, 우리는 이와 관련된 어려움과 미묘한 차이를 인정해야 합니다.

  • 편향 - 인간과 마찬가지로 LLM도 편견을 전파할 수 있습니다.공정성을 극대화하려면 세심한 교육, 감사 및 감독이 필요합니다.
  • 진화하는 진리의 본질 - 사실과 증거는 계속 변합니다.LLM은 이에 따라 신념을 업데이트해야 하며 확고히 자리 잡지 않아야 합니다.
  • 제한된 지식 - 클레임은 무궁무진하지만 LLM에는 한정된 교육이 있습니다.이들의 역량은 제한될 것입니다.
  • 무기 경쟁 - LLM이 발전함에 따라 잘못된 정보를 생성하는 사람들은 새로운 전술을 발전시킬 것입니다.지속적인 발전과 연구가 필수적입니다.
  • 과도한 의존 - LLM은 인간의 팩트체커를 대체하는 것이 아니라 보강해야 합니다.우리는 그 한계를 이해해야 합니다.

잘못된 정보 탐지를 위한 교육 데이터세트

정확한 오정보 탐지 모델을 구축하려면 고품질 교육 데이터가 중요합니다.활용할 수 있는 몇 가지 유망한 데이터 세트는 다음과 같습니다.

발열 - 사실 추출 및 검증 데이터 세트에는 Wikipedia에서 추출한 증거를 기반으로 지원, 반박됨 또는 NoTenoughInfo로 수동 레이블이 지정된 185,000개의 주장이 포함되어 있습니다.

멀티FC - 다중 FC 데이터 세트에는 전문 팩트 체커가 라벨을 붙이고 Snopes 및 PolitiFact와 같은 사이트의 사실 확인과 연결된 30만 건의 주장이 포함되어 있습니다.

페이크 뉴스넷 - 이 데이터셋에는 소셜 미디어에서 가짜 뉴스와 실제 뉴스의 전파 네트워크에 대한 데이터가 포함되어 있어 바이럴리티를 이해하는 데 도움이 됩니다.

연구원은 이러한 다양한 데이터 세트를 활용하여 허위 주장의 텍스트 패턴을 인식하고, 검증된 출처에서 반박할 증거를 검색하고, 클레임이 확산되는 방식을 예측하는 모델을 학습할 수 있습니다.교육 데이터를 지속적으로 확장하고 다양화하면 모델의 견고성이 향상될 것입니다.

확률론적 사실 확인에 대한 알고리즘적 접근

사실 확인은 복잡하고 미묘한 경우가 많기 때문에 이진/거짓 결론은 문제가 될 수 있습니다.확률론적 접근법을 통해 좀 더 미묘한 분석을 할 수 있습니다.

베이지안 추론 - 주장을 전처리하여 의미 있는 의미론적 특징을 추출함으로써 모델은 새로운 주장을 관찰된 증거와 비교하고 확률적 진실성 점수를 출력할 수 있습니다.

주의 메커니즘 - 어텐션 레이어를 통해 모델은 검증되거나 위조된 다른 주장과의 유사성을 기반으로 주장의 사실성에 대한 통찰력을 제공하는 핵심 단어와 문구를 강조할 수 있습니다.

크라우드소싱 - 다양한 인간 평가자 풀의 판단을 종합하면 군중의 지혜의 진실성 확률을 높일 수 있습니다.

신뢰도 보정 - Platt Scaling과 같은 다양한 기법을 사용하면 신경망 출력을 모델 확실성을 정확하게 반영하는 올바른 형식의 확률 추정치로 보정할 수 있습니다.

이진 예측 대신 보정된 확률을 출력하면 다운스트림 소비자가 증거에 더 신중한 가중치를 부여하고 신중한 결정을 내릴 수 있습니다.

증폭을 줄이기 위한 소셜 플랫폼 알고리즘 최적화

주요 플랫폼은 진실성보다 참여도를 최적화한다는 비난을 받는 경우가 많습니다.하지만 증폭을 줄이기 위한 알고리즘 수단이 존재합니다.

속도 제한 공유 - 재공유를 일시적으로 막으면 특히 불확실한 주장의 경우 사실 확인에 충분히 바이럴이 느려질 수 있습니다.

바이럴리티 예측 비활성화 - 잘못된 정보가 많이 공유될 것이라고 예측한다는 이유만으로 잘못된 정보를 추천하지 마세요.

신뢰할 수 없는 출처에 대한 처벌 - 잘못된 정보를 공유한 기록이 있는 계정의 콘텐츠를 하향 조정합니다.

보상 투명성 - 원본 출처가 인용되고 방법론이 자세히 설명된 콘텐츠를 홍보하세요.

권장 사항 다양화 - 의심스러운 주장과 함께 대안적인 관점과 양질의 정보를 제안하세요.

하이라이트 팩트체크 - 현재 유행하고 있는 의심스러운 주장과 함께 사전에 사실 확인을 제공합니다.

알고리즘을 최적화할 때 개방성, 언론의 자유, 공공 안전의 균형을 맞추는 것은 어려운 일입니다.하지만 플랫폼이 피해를 완화하는 데 무력한 것은 아닙니다.

LLM의 강점을 책임감 있게 활용하여 잘못된 정보를 방지하려면 지속적인 연구, 투명성 및 신중한 규제가 필요합니다.하지만 발전을 추구하지 않기엔 위험이 너무 큽니다.근면과 지혜를 바탕으로 우리는 보다 공정하고 정보에 입각한 정보 생태계를 구축할 수 있습니다.

사피엔과 함께 LLM의 잠재력을 최대로 끌어올리세요

앞서 살펴본 바와 같이 LLM을 활용하면 잘못된 정보를 식별하고 온라인 담론을 개선할 수 있는 많은 잠재력이 있습니다.하지만 이러한 잠재력을 실현하려면 세심하고 편견 없는 데이터 레이블링과 모델 교육이 필요합니다.그곳이 바로 그곳입니다. 사피엔 들어온다.Sapien은 특정 사용 사례에 맞게 최적화되고 윤리적인 LLM을 만들 수 있는 종합적인 서비스를 제공합니다.당사의 글로벌 도메인 전문가 네트워크를 통해 모델이 편향을 최소화하면서 성능을 극대화하는 데 필요한 완벽하게 레이블링된 데이터를 얻을 수 있도록 합니다.LLM을 윤리적으로 배포하려는 소셜 플랫폼이든 가능성의 한계를 뛰어넘는 연구자이든, Sapien은 성공의 원동력이 되는 데이터 레이블링 전문 지식을 보유하고 있습니다.따라서 LLM이 지혜, 공정성, 진실을 강화하는 미래를 만들기 위해 함께 노력해 봅시다. 사피엔에게 연락하기 오늘 자세히 알아보고 데모를 예약하세요.

데이터 라벨링 작동 방식 보기

Sapien의 데이터 라벨링 및 데이터 수집 서비스가 음성-텍스트 AI 모델을 어떻게 발전시킬 수 있는지 알아보려면 당사 팀과 상담을 예약하세요.