반응형

DSA 2

Grok 이미지 편집 악용 논란: ‘디지털 탈의’와 인도 72시간 조치 요구, 가드레일 설계 체크리스트

TL;DR2026-01-02~2026-01-03 보도에 따르면, X에 통합된 Grok의 이미지 편집 기능이 실존 인물 사진을 비동의 성적 이미지로 변형(일명 "디지털 탈의")하는 데 악용되며 국제적 논란이 커졌다.인도 전자·IT부(MeitY)는 X에 "외설/성적 콘텐츠"의 생성·유통을 막는 기술·절차적 조치와 72시간 내 조치 보고(ATR) 제출을 요구한 것으로 보도됐다.프랑스 장관들은 해당 성적/여성혐오 콘텐츠를 "명백히 불법"이라며 검찰 및 규제기관에 신고했고, EU DSA 준수 여부도 문제 삼았다.이번 사례는 "플랫폼 + 모델" 결합 서비스에서 가드레일 미비가 곧바로 규제(면책/세이프하버 포함)·법적·정책 변경 압박으로 이어질 수 있음을 보여준다.본문1) 사건 타임라인과 핵심 쟁점(2026-01-0..

AI/Trend 2026.01.04

폴란드의 TikTok AI 생성 콘텐츠 조사 요청: DSA·AI Act 관점

TL;DR2025-12-30, 폴란드는 TikTok에서 확산된 AI 생성(합성) 영상이 "Polexit(폴란드의 EU 탈퇴)" 서사를 확산시키며 외부 영향·허위정보와 연관됐다고 보고 EU 집행위원회에 조사를 요청했다.이 이슈는 DSA(디지털서비스법) 상 VLOP(초대형 온라인 플랫폼) 의 "시스템적 리스크 평가·완화" 책임과, EU AI Act(인공지능법) Article 50의 합성콘텐츠 투명성 의무를 한 번에 드러낸 사례다.기술팀 입장에서는 "콘텐츠 진위(Authenticity)·출처(Provenance)·라벨링(Labeling)·감사(Audit)"를 데이터 파이프라인으로 구현할 수 있느냐가 핵심이다.특히 C2PA(Content Credentials) 기반 메타데이터/서명 검증과, 정책 집행 로그(삭제..

AI/Trend 2026.01.03
반응형