‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(AI기본법)이 22일부터 본격 시행됐다. AI 관련 부분 규제가 아닌 포괄적 법령으로는 세계 최초 시행이다. 인공지능(AI)과 관련한 법안 마련의 시작은 유럽연합(EU)이었다. EU가 먼저 AI 법을 만들었지만, 핵심 규제 적용을 2027년까지 미루며, 우리나라가 가장 먼저 실제 지원·규제 체계를 시스템화한 국가가 됐다.
AI 기술이 한창 꽃피우려는 시점에서 ‘법’이 생겼다는 것은 긍정적인 측면과 부정적인 측면에서 바라볼 수 있다. 한창 산업을 활성화시켜야 하는 시점에서 각종 규제로 발목을 잡을 수 있다는 우려가 나오고, 반대로 산업 진흥을 위한 정부 차원의 지원 등 긍정적인 효과도 있을 수 있다.
◇AI 기본법, ‘산업 진흥+안전 규제’ 불편한 투 트랙
AI 기본법은 ‘산업 육성’이라는 지원책과 ‘위험 관리’라는 규제책의 두 가지 목표를 동시에 담고 있다. 산업 육성 측면에서는 정부가 매 3년마다 ‘국가 AI 기본계획’을 수립하도록 했으며, 현재 대통령직속으로 만들어진 ‘국가인공지능전략위원회’의 법정화를 통해 정부 차원에서 적극적인 AI 정책 움직임이 가능하다. 또 연구개발(R&D), 데이터 인프라, 인재 양성 등의 지원 근거로 마련된다.
이와 반대로 규제 측면도 있다. ‘고영향 AI(의료·에너지·채용·대출 등) 안전성 확보 의무’, ‘생성형 AI 결과물 표시(워터마크) 의무’, ‘설명 가능성 요구’ 등 사전 규체로 만들어 놓은 조항은 AI 모델과 서비스 개발 기업에게는 발목을 잡으며 사업 활성화에 영향을 미칠 수도 있는 만큼 조심스러움이 없지 않다.
정부는 딥페이크와 허위 사실 유포, 인권 침해 등 고도화된 AI의 폐해로부터 사회를 지킬 규범이 필요하다면서도 업계 우려를 고려해 정부의 사실 조사권이나 과태료 부과를 1년 이상 유예하는 등 곧바로 명확한 법적 제재를 가하지는 않을 것이라는 입장을 밝혔다.
◇‘지원과 규제’ 아우르는 첫 틀, AI 기본법의 핵심은
이 법은 AI를 건전하게 활용할 수 있도록 국가가 산업을 지원하는 동시에, 위험성이 예상되는 AI의 부작용을 미리 막는 데 초점을 두고 있다. 진흥 방안으로는 과학기술정보통신부 장관이 3년마다 AI와 관련 산업을 육성하고 국가 경쟁력을 높이기 위한 ‘AI 기본계획’을 수립·시행하도록 했다. 국가인공지능전략위원회는 법정 위원회로 격상되며, 국가와 지방자치단체는 AI 사업자의 창의성을 존중하고 관련 제품·서비스의 연구개발을 지원하도록 규정했다.
규제 측면에서는 AI가 국민 생활에 미칠 수 있는 잠재적 위험을 최소화하고 안전한 이용 환경을 마련하기 위한 제도 정비가 강조된다. 또한 AI의 안전성과 신뢰성을 확보하기 위한 기술 개발, 교육, 홍보 활동도 국가가 지원해야 한다. AI 기본법은 다른 법률에 특별한 규정이 없는 한 AI 관련 사안은 이 법을 따르도록 해, AI 분야에서 포괄적이고 상위적인 법적 지위를 갖는다는 점을 명확히 했다.
이 법이 제정된 배경에는 기존 법률이 AI 시대의 변화 속도를 따라가지 못한다는 문제의식이 있다. 예를 들어 전기통신사업법의 ‘이용자 이익 침해 금지’ 조항만으로는 AI·알고리즘이 초래하는 새로운 형태의 차별이나 피해를 다루기 어렵다는 지적이 있었다. 또한 정보의 ‘유통’과 ‘공개’를 전제로 설계된 정보통신망법은, 정보를 비가시적인 방식으로 생성하는 AI 기술을 충분히 포괄하지 못한다는 인식도 작용했다.
◇창작물 표시부터 사실 조사권까지...법 시행에 업계 ‘긴장’
AI 업계는 AI기본법에서 산업 전반에 가장 큰 영향을 미칠 조항으로 ‘고영향 AI’ 규제, AI 사용 표시(워터마크) 의무, 그리고 설명 가능성 확보 조항을 꼽는다. 고영향 AI는 의료·에너지·채용·대출 심사처럼 국민의 생명·권리와 직결되는 분야에서 활용되는 AI를 의미하며, 해당 서비스를 제공하는 사업자는 사람이 개입해 관리하는 체계를 갖추고 안전성 확보 조치를 취해야 한다. 정부는 현재 기준으로는 완전 자율주행 단계인 레벨 4 이상 차량 정도만 고영향 AI에 해당한다고 설명하지만, 업계는 기술 발전 속도를 고려할 때 다양한 분야에서 규제 대상 서비스가 등장하는 시점이 머지않았다고 보고 있다.
AI기본법은 고영향 AI뿐 아니라 생성형 AI를 활용한 제품·서비스에도 ‘AI 기반 운용 사실 사전 고지’와 ‘AI 생성물 표시’를 의무화했다. 특히 콘텐츠 업계는 이 조항에 강한 우려를 나타낸다. 영상·음악·이미지 등 창작 과정에서 AI를 일부만 활용했더라도 ‘AI에 의한 창작물’이라는 표시가 붙으면 작품의 시장 가치가 떨어질 수 있다는 이유에서다. 시행령 초안에서는 기계가 읽을 수 있는 메타데이터 형태의 표시도 허용됐지만, 딥페이크 등 악용 우려가 제기되면서 최소 1회 이상 이용자에게 문구나 음성으로 직접 안내하도록 규정이 강화됐다. 과기정통부는 워터마크 의무가 글로벌 기업들도 채택하는 국제적 흐름이라며, 업계 혼란을 줄이기 위해 최소 1년 이상의 계도 기간을 두겠다고 밝혔다.
설명 가능성 조항도 업계의 관심을 끈다. 법은 AI의 판단·결과에 영향을 받는 이용자가 ‘주요 기준과 원리’에 대해 명확하고 의미 있는 설명을 제공받을 수 있어야 한다고 규정한다. 그러나 업계에서는 이 조항이 사실상 선언적 의미에 가깝다는 평가가 나온다. 생성형 AI의 추론 과정은 블랙박스에 비유될 만큼 복잡해, 이를 기술적으로 해석·설명할 수 있는 역량을 갖춘 기업은 현재 전 세계적으로도 극히 제한적이라는 이유에서다.
과기정통부 장관은 AI 기본법이 정한 AI 생성 사실 표시, AI 위험 관리 체계 구축, 고영향 AI 사업자 책무 등을 위반했거나 위반했다는 신고·민원이 접수된 경우 해당 사업장에서 장부·서류·자료 등을 조사할 수 있는 사실 조사권을 가진다. AI 사용 여부를 고지하지 않은 경우나 해외 AI 업체가 국내 대리인을 지정하지 않은 경우 과태료 최대 3000만원을 부과할 수 있다.
AI 기본법 시행이 AI 활성화의 시작 단계에 있는 국내 AI 업계의 발전 가능성을 저해할 수 있다는 우려가 쏟아지자, 정부는 사실 조사권 발동과 과태료 부과를 1년 이상 유예하겠다고 밝혔다. 하지만 업계에서는 ‘규제’ 자체가 있는 것만으로도 우려의 목소리를 거두지 못하고 있다.






































