스마트폰 카메라로 직접 촬영한 사진에서 원치 않는 배경 인물을 지우거나, 빛 번짐을 수정하는 등 간단한 편집은 이제 일상이 되었습니다. 그런데 이 과정에서 인공지능(AI) 기반 편집 기능이 활용되면, 최종 결과물에 ‘AI가 생성한 콘텐츠’라는 표식이 붙는 경우가 많아지면서 이용자들의 혼란과 불만이 고조되고 있습니다. “내가 찍은 사진에 AI 딱지라니 과도하다”, “혹시 나도 법적 책임을 지는 건 아닌가”와 같은 목소리가 이어지면서, 지난 22일부터 시행된 인공지능(AI) 기본법의 적용 범위에 대한 관심이 집중되고 있습니다.
이러한 배경 속에서 과학기술정보통신부는 AI 기본법의 투명성 확보 기준을 명확히 하고, 특히 개인 이용자의 우려를 해소하기 위한 설명을 내놓았습니다. 결론부터 말하자면, AI 기본법상 표식 의무는 AI 서비스 제공 사업자에게 부과되며, 개인 이용자는 해당 의무의 대상이 아닙니다.
생성형 AI 투명성, 왜 필요한가?
지난 5월 22일 시행된 AI 기본법은 생성형 AI 제품 및 서비스를 제공하는 사업자에게 ‘투명성 확보 의무’를 부과하는 것을 핵심으로 합니다. 이는 생성형 AI가 활용된 서비스와 그 결과물이 AI에 의해 생성되었다는 사실을 이용자가 명확히 인지할 수 있도록 하자는 취지입니다. 이 같은 규정 도입의 배경에는 생성형 AI가 만들어낸 결과물이 실제 사진이나 영상과 구분하기 어려운 형태로 유통되면서, 온라인상에서 허위 정보나 오인된 사실이 확산될 수 있다는 사회적 우려가 자리 잡고 있습니다.
실제로 현실에서는 불가능한 장면이 마치 실제 상황인 것처럼 유통되거나, AI가 만든 가상의 인물이 실제 사람으로 오인되는 사례가 끊이지 않고 있습니다. 이러한 콘텐츠를 접한 이용자들이 AI 생성물임을 뒤늦게 알고 ‘속았다’는 반응을 보이는 경우가 잦아지면서, 이용자 신뢰 훼손 문제가 심각하게 대두되었습니다. AI 기본법은 이용자가 콘텐츠의 출처나 생성 과정에 AI가 관여했다는 사실을 최소한 인지할 수 있도록 하여, 이러한 신뢰 훼손을 방지하려는 목적으로 제정되었습니다. 이는 국내뿐 아니라 해외 주요 생성형 AI 서비스에서도 이미 로고 노출이나 안내 문구 등을 통해 AI 생성물임을 알리는 방식으로 적용되고 있는 국제적인 흐름이기도 합니다. 삼성전자 역시 갤럭시S24 시리즈부터 AI 기능 편집 결과물에 별도 표식을 표시하며 이러한 변화에 동참하고 있습니다.
개인 이용자의 의무는? ‘AI 딱지’ 오해와 진실
그렇다면 스마트폰으로 사진을 편집하거나 AI 도구를 활용해 콘텐츠를 만드는 개인 이용자들은 이 법의 적용을 받는 것일까요? 과학기술정보통신부의 설명은 명확합니다. AI 기본법상의 표시 의무는 챗GPT나 제미나이와 같은 생성형 AI 제품·서비스를 직접 제공하는 **AI 사업자**에게만 부과됩니다. 즉, 이들 AI 기업의 서비스를 이용하는 개인, 유튜버, 웹툰 작가, 방송사, 언론사 등은 AI 기본법상 ‘이용자’로서 표시 의무가 없습니다.
개인 이용자가 스마트폰의 사진 지우개와 같은 AI 활용 편집 기능을 사용했다고 해서 AI 표시 의무가 발생하거나 법적 책임을 지게 되는 구조는 아닙니다. 현재 제도는 표시 여부를 이용자가 선택하거나 판단하는 방식이 아니라, 서비스 제공자가 자체적인 운영 방식에 따라 적용하도록 되어 있습니다. 또한, 사진의 일부만 수정했음에도 ‘AI가 만든 콘텐츠’처럼 표시되는 것이 과도하다는 지적에 대해서도 법에서는 AI 기술이 결과물 생성 과정에 관여했는지 여부를 기준으로 표시를 판단하며, 전체 생성과 일부 편집에 따른 표시 세분화는 규정하고 있지 않다고 설명했습니다.
더 나아가, 만약 이용자가 개인적으로 AI 표식을 지우거나 편집하더라도 AI 기본법상으로 법적 책임을 묻는 구조는 아닙니다. 이 법은 이용자 처벌을 전제로 한 것이 아니라, 생성형 AI 서비스 제공 단계에서의 투명성 확보를 목표로 하기 때문입니다. 다만, 이용자가 AI 생성물을 활용해 정보통신망법, 공직선거법, 청소년보호법, 표시광고법 등 **관계 법령에 저촉되는 행위를 할 경우에는 해당 법령에 따라 제재를 받을 수 있음**을 유의해야 합니다.
사업자 의무 명확화, 이용자 주의사항은?
AI 기본법의 투명성 확보 의무는 누가 만들었는지보다 AI가 관여했다는 사실만큼은 이용자가 인지할 수 있도록 하려는 최소한의 장치입니다. 고영향 AI 및 생성형 AI를 활용하는 제품 또는 서비스를 제공하는 AI 사업자는 인공지능 활용 사실을 사전에 이용자에게 고지해야 하며, 이는 글자, 기호 등 사람이 직관적으로 인식할 수 있는 가시적 표시와 메타데이터, 디지털 워터마크 등 기계로 판독 가능한 비가시적 표시를 모두 포함합니다. 특히 딥페이크 생성물은 반드시 가시적 표시 방법을 허용해야 합니다.
예술적·창의적 표현물의 경우 딥페이크 결과물이라 하더라도 전시나 감상을 저해하지 않도록 비가시적 표시 방식을 허용하여, 창작 활동을 위축시키지 않으려는 노력이 엿보입니다. 하지만 여전히 일상적인 편집과 생성형 AI 결과물 사이의 모호한 경계에 대한 이용자들의 혼란은 남아 있습니다. 이에 과학기술정보통신부는 지속적으로 AI 기술 발전과 서비스 이용 환경 변화를 고려하여 투명성 확보 기준을 구체화하고 이용자 혼선을 줄이기 위한 노력을 이어갈 것이라고 밝혔습니다.
결론적으로 AI 기본법은 AI 시대의 신뢰 확보를 위한 중요한 첫걸음이며, 개인 이용자는 이 법으로 인해 직접적인 의무를 지거나 처벌받을 일은 없습니다. 그러나 AI 생성물을 다른 목적으로 악용할 경우 다른 법률에 저촉될 수 있다는 점은 명심해야 할 것입니다.
에네 기자 (ene@dailynode.co.kr)
