반응형

2026/01/25 2

NeurIPS 논문에서 hallucinated citations가 터진 이유와 대응 체크리스트

TL;DRNeurIPS 2025(2025년 12월, 샌디에이고) 발표/채택 논문에서 hallucinated citations(존재하지 않거나 메타데이터가 맞지 않는 인용) 이 다수 확인됐습니다.GPTZero는 채택 논문 전체를 스캔했고, 51편에서 100건의 가짜 인용을 "확인(confirmed)" 했다고 밝혔습니다.NeurIPS의 공식 LLM 정책은 도구 사용을 허용하지만, 텍스트/그림/참고문헌까지 전부 저자 책임임을 명시합니다.핵심은 "AI를 썼냐"가 아니라, 인용이 사실의 신뢰 경계(trust boundary) 라는 점입니다. 인용 검증을 자동화 파이프라인에 넣으면 재발 확률을 크게 낮출 수 있습니다.본문TOC사건 요약: 무엇이 발견됐나hallucinated citations 정의(포함/제외/오해)..

AI/Trend 2026.01.25

Google Discover AI 생성 헤드라인, ‘실험’이 아닌 ‘기능’으로 굳어졌다

TL;DR구글은 Discover에서 보이는 AI 생성 헤드라인('트렌딩 토픽' 개요 헤드라인)을 실험이 아니라 기능이라고 확인했습니다.구글은 "개별 기사 헤드라인을 재작성하는 게 아니라, 여러 출처를 종합한 개요"라고 설명하지만, 실제 UI는 언론사 헤드라인을 대체한 것처럼 보일 수 있어 신뢰·책임 논란이 커졌습니다.문제의 본질은 'AI가 제목을 쓴다'가 아니라, 독자가 제목을 '언론사가 쓴 것'으로 오인하기 쉬운 설계와 오보/왜곡이 발생했을 때 책임이 흐려지는 구조입니다.이는 Discover만의 이슈가 아니라, AI Overviews/AI 요약 등으로 확장되는 "플랫폼의 편집 레이어" 문제와 맞물려 규제·반발이 이어지고 있습니다.본문1) 무엇이 ‘공식화’됐나: “실험”에서 “기능”으로2025-12-02..

AI/Trend 2026.01.25
반응형