[기획] ‘AI 생성 영상’ 표시 의무···투명성과 혁신의 갈림길 선 한국
내달부터 국내에서 온라인에 게시되는 AI 생성 영상과 이미지는 ‘AI 생성물’임을 반드시 표시해야 하고, 이를 삭제하거나 가리는 행위는 금지된다. 플랫폼 사업자도 표시 의무 준수 여부를 관리하고, 위반 시 과태료 및 징벌적 손해배상이 부과될 수 있다. AI 생성 영상 표시 의무화는 딥페이크를 활용한 허위·과장 광고와 소비자 피해 방지가 핵심이다. 특히 가짜 의사 광고, 식·의약품 추천 등으로 국민 안전과 시장 질서의 교란 사례가 늘면서 제도 도입이 추진됐다. ◇ AI 기술이 동영상 업계에 가져온 우려 AI 기술 발전은 사회에 긍정적 효과를 가져왔지만, 동시에 딥페이크(Deepfake) 영상의 악용이라는 심각한 문제를 낳고 있다. 딥러닝 기반 기술의 빠른 확산과 범죄 활용의 용이성, 윤리 기준 미비가 결합해 사회적 허점을 드러내고 있다. 딥페이크의 대표적 부작용은 허위·과장 광고를 들 수 있다. 유명인이나 의사를 사칭해 의약품을 추천하는 영상으로 소비자 피해 우려가 커지고 있다. 광고 속에서 의사 이름이나 병원명, 면허번호가 없거나 ‘OO대 출신’, ‘OO과 전문의’ 등 모호한 표현만 있다면 가짜 의사일 가능성이 높다. 소비자 안전 문제 또한 심각한 수준이다.