네이버가 온라인 공간에서의 악성 댓글 문제를 근본적으로 줄이기 위해 기술적 대응을 한층 강화했다. 네이버는 29일, 생명 경시 표현과 2차 가해성 댓글 탐지를 대폭 고도화한 ‘AI 클린봇 3.0’ 업그레이드를 완료했다고 밝혔다. 이번 개편은 최근 사회적으로 문제가 되고 있는 자살·사망 조장 표현, 신체 훼손을 가볍게 다루는 댓글, 사건·사고 피해자와 유족을 향한 조롱·비하·혐오성 발언 등을 집중적으로 차단하는 데 초점을 맞췄다.
특히 새 버전의 클린봇은 단순히 댓글 문장만 분석하던 기존 방식에서 벗어나, 기사 제목과 본문까지 함께 고려해 악성 의도를 판단하는 ‘맥락 기반 탐지 능력’을 강화한 것이 특징이다. 네이버는 뉴스 서비스 전반에서 악성 댓글을 보다 정확하게 걸러내기 위해 기사 맥락과 댓글 내용을 결합하는 최적화 작업을 지속해 왔으며, 이번 업그레이드를 통해 악의적 표현을 더욱 정교하게 식별할 수 있게 됐다고 설명했다.
네이버의 AI 클린봇은 2019년 업계 최초로 도입된 이후 꾸준히 진화해 왔다. 초기에는 욕설이나 비속어 등 명확한 악성 키워드를 중심으로 탐지했지만, 2020년부터는 문장 전체의 맥락을 분석해 욕설이 포함되지 않은 모욕적 표현까지 탐지 범위를 넓혔다. 이후에도 성적 불쾌감을 유발하는 표현, 혐오·차별 발언, 기호나 문자를 활용한 우회적 악플 등 새로운 형태의 악성 표현에 대응하기 위해 지속적인 모델 개선이 이뤄졌다.
또 네이버는 2023년 한국인터넷자율정책기구(KISO)의 혐오표현 자율정책 가이드라인을 반영하는 등 외부 기관과의 협력을 강화하며, 온라인에서의 건전한 소통 환경 조성을 위한 정책적 노력도 병행하고 있다. 김수향 네이버 리더는 “새로운 혐오·비하 표현이 계속 등장하는 만큼, 클린봇의 탐지 성능을 지속해서 고도화하고 있다”며 “특히 생명 경시 조장 표현과 피해자·유족을 향한 조롱성 댓글을 집중 차단하는 데 주력할 것”이라고 밝혔다.
기술적 대응과 함께 정책적 조치도 강화되고 있다. 네이버는 올해 들어 정치·선거 섹션 기사에는 댓글을 제공하지 않기로 했으며, 특정 기사에서 악성 댓글이 일정 기준을 넘어서면 댓글 기능을 자동으로 비활성화하는 정책도 시행 중이다. 이는 악성 댓글이 사회적 갈등을 증폭시키는 것을 최소화하고, 이용자들이 보다 안전한 환경에서 의견을 나눌 수 있도록 하기 위한 조치다.
네이버는 앞으로도 이용자 의견을 반영해 클린봇의 탐지 정확도를 높이고, 온라인 커뮤니티의 건강성을 유지하기 위한 기술적·정책적 노력을 지속할 계획이다. 악성 댓글 문제를 단순한 플랫폼 관리 차원을 넘어 사회적 책임으로 인식하고 있다는 점에서, 이번 업그레이드는 온라인 생태계 전반에 의미 있는 변화를 가져올 것으로 기대된다.







