AI 기본법 시행으로 “AI 쓰면 워터마크 의무?”라는 오해가 커졌습니다. 단순 제작자는 법적 의무 대상이 아니며, 딥페이크·오인 유발 콘텐츠만 표시 의무가 강화된다고 합니다.
1) AI 기본법 시행 “워터마크 공포”
2026년 1월 22일부터 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」(통칭 AI 기본법)이 시행되면서, 영상·VFX 제작 현장에서는 비슷한 질문이 폭발적으로 늘었습니다.
“미드저니로 만든 배경 한 컷이라도 들어가면 워터마크를 무조건 넣어야 하나요?”, “런웨이로 만든 쇼트가 있으면 납품이 막히나요?” 같은 불안때문이죠.
결론부터 말하면, 많은 경우 이 불안은 ‘법의 의무 주체’가 누구인지가 섞이면서 생긴 오해입니다.
AI 기본법은 국가 차원의 AI 거버넌스·신뢰 기반·안전과 책임을 다루는 기본 틀을 만들고, 하위 기준(시행령·가이드라인 등)과 함께 운영되도록 설계돼 있습니다.
여기서 가장 중요한 포인트는 이것입니다.
-
AI 서비스를 “개발·제공”하는 주체(사업자)와
-
AI 도구를 제작 공정에 “활용”하는 제작자/스튜디오(사용자)는 법에서 다루는 역할과 책임의 무게가 다를 수 있다는 점입니다.
그래서 “AI를 썼다 = 무조건 워터마크를 박아야 한다”처럼 단순화하면 현장에서는 오판이 생기기 쉽다고 합니다.
2) 배경 합성·리터칭·애니메이션 제작은?
영상/VFX 파이프라인에서 AI 활용은 이미 일상이 된것 같습니다.
-
콘셉트 아트/무드보드 제작 (레퍼런스 확보)
-
배경 확장, 하늘 교체, 오브젝트 제거 같은 리터칭
-
로토/키잉 보조, 업스케일, 노이즈 제거
-
애니메이션용 프리비즈, 샷 테스트
-
자막 초안/번역 초안 생성(검수 전제)
이런 작업은 ‘최종 결과물에 AI가 들어갔다/안 들어갔다’만으로 단칼에 재단하기보다, 시청자를 오도할 위험(오인 가능성)과 권리 침해 가능성(초상·저작권·개인정보)을 함께 봐야 현실적입니다.
(이 지점은 법뿐 아니라 방송사·플랫폼 가이드라인이 더 구체적으로 다룹니다.)
3) 딥페이크·오인 유발은 표시/검증이 강해짐
현장에서 진짜 위험한 영역은 따로 있습니다. 바로 현실을 그럴듯하게 ‘오인’하게 만드는 콘텐츠입니다. 저도 한동안 그 인물이 진짜인줄 알고 오해를 많이 한적이 있었습니다. AI라고 말도 안하니까요.
-
실존 인물의 얼굴/음성을 합성해 “그 사람이 말한 것처럼” 보이게 만드는 경우
-
뉴스/보도 맥락에서 사실처럼 오해될 수 있는 조작물
-
허위정보를 설득력 있게 포장하는 형태 (가짜뉴스형 연출)
이런 유형은 사회적 피해가 크고, 규제·심사·플랫폼 정책의 표적이 되기 쉽습니다. 그래서 표시(고지)와 검증 요구가 훨씬 강해집니다. (현장에서는 “문제는 AI 사용 그 자체가 아니라, ‘현실 오인’이 발생하느냐”로 정리하면 이해가 빠릅니다.)
4) 현실에서는 클라이언트 우선순위?
여기서부터가 영상 제작자에게 가장 실무적인 메시지입니다.
법적으로 가능해도, 클라이언트 가이드라인을 통과 못 하면 납품이 안 된다는 것이죠.
대표적으로 넷플릭스는 파트너 헬프센터에서 콘텐츠 제작 과정에서 GenAI를 어떤 방식으로 사용할지에 대한 지침을 공개하고 있습니다.
핵심은 “투명하고 책임감 있게 사용하면 유용한 도구가 될 수 있다”는 전제 아래, 사전 공유(알림)와 특정 조건에서는 서면 승인 필수 같은 운영 규칙을 둔다는 점입니다.
예를 들어 넷플릭스 문서에는 다음과 같은 취지의 요구가 명확히 들어가 있습니다.
-
프로덕션 파트너가 GenAI 사용 의향이 있으면 넷플릭스 담당자에게 알릴 것을 기대
-
GenAI 결과물이 최종 납품물, 출연자 초상, 개인정보, 제3자 IP 등을 포함하면 작업 전에 서면 승인 필요
-
가능한 한 최종 납품물에 포함하지 않고 임시 활용을 권장하는 원칙도 제시
즉, “워터마크 하나 붙이면 끝”이 아니라, 리스크가 있는 사용 사례를 사전에 분류하고 승인 루트를 타는 방식으로 관리합니다.
방송 쪽에서는 KBS의 AI 가이드라인이 현장 감각을 잘 보여줍니다. KBS는 뉴스·시사 콘텐츠에 대해 생성형 AI 결과물을 검증 없이 그대로 사용하지 않는 것을 원칙으로 명시하고, 사실 왜곡·오도 방지를 강조하고 있습니다.
또한 AI를 활용했다면 이용자가 인식할 수 있도록 밝히고(투명성), 핵심적으로 활용된 경우에는 시청자가 명확히 인지할 수 있게 적절한 방법으로 알릴 수 있다고 적습니다.
이 흐름이 말해주는 것은 법 해석만 붙잡고 있어서는 납품을 지킬 수 없고, 결국 클라이언트의 내부 기준이 ‘실전 규칙’이 된다는 점입니다.
5) 3가지 레벨로 분류되는 실무
현장에서 말하는 표시는 보통 아래 3가지 레벨로 정리됩니다.
-
대외 표기(시청자/이용자 대상)
-
화면 내 문구, 자막, 크레딧, 설명란 고지 등
-
특히 뉴스/보도성, 사실 오인 위험이 높으면 강도가 올라감
-
내부 기록(클라이언트/감사 대응용)
-
어떤 툴을 어디에 썼는지, 어떤 소스가 들어갔는지, 누가 검수했는지
-
넷플릭스처럼 사전 공유/승인 체계를 요구하는 곳은 여기가 핵심
-
권리/데이터 안전장치(법무·보안 관점)
-
개인정보/출연자 초상/제3자 IP가 섞이는 순간, “표시”보다 더 중요한 건 사용 권한과 승인 문서입니다.
그래서 “워터마크 의무냐 아니냐”로만 접근하면, 오히려 중요한 리스크(초상권, 데이터 보안, IP)가 빠질 수 있습니다.
6) 제작자가 바로 적용할 수 있는 “AI 리스크 매트릭스”
아래 질문 6개만 체크해도, 대부분의 혼란이 정리될것으로 판단됩니다.
(A) 오인 위험
- 이 장면은 실제 인물/실제 사건을 사실처럼 보이게 만들 가능성이 있나
- 뉴스·보도·시사 맥락에서 시청자가 “진짜”라고 믿을 여지가 있나?
(B) 권리/데이터
- 실존 인물의 초상/음성/퍼포먼스를 포함하나? (출연자, 일반인, 인플루언서 포함)
- 개인정보(얼굴/이름/연락처/식별정보)가 입력 데이터나 결과물에 섞였나?
- 제3자 저작물/상표/IP를 ‘식별 가능하게’ 닮게 만들었나?
(C) 납품 관점
- 이 결과물이 최종 화면(납품본)에 들어가나, 아니면 임시 레퍼런스/프리비즈인가?
-
A가 “예”에 가까울수록 → 표시/검증/승인 강도 상승
-
B가 “예”면 → 서면 승인·권리 확인이 사실상 필수(특히 글로벌 플랫폼)
-
C가 “최종 납품물”이면 → “AI 사용 여부”가 아니라 “어떤 기준으로 관리했는지”를 요구받을 확률이 높습니다.
7) 리스크를 관리하는 사람이 오래 간다
AI 기본법 시행은 업계를 “금지”로 몰아가기보다, 신뢰와 책임의 체계를 만들겠다는 방향에 가깝습니다.
그리고 현장에서는 그 체계가 클라이언트 가이드라인(넷플릭스 등)과 방송사 가이드라인(KBS 등)으로 더 구체화돼 운영됩니다.
따라서 방송이나 영상 제작자가 가져가야 할 전략은 한 줄입니다.
-
“워터마크 붙이면 되나요?”가 아니라
-
“우리가 무엇을, 어디에, 어떤 리스크로 썼고, 어떻게 검증/승인했나요?”로 질문을 바꾸자.
이 관점이 잡히면, AI는 부담이 아니라 “관리 가능한 제작 도구”가 됩니다.
저도 AI 영상제작을 통해 신세계를 경험하고 있는데요. AI 기본법이 잘 정착이 되어서 서로 피해를 주지 않고 건전하고 창의력이 높아지는 예술 세계가 되었으면 좋겠습니다.
FAQ
Q1. AI로 만든 이미지가 1초라도 들어가면 무조건 워터마크가 필요한가요?
일률적으로 단정하기보다, 오인 위험(딥페이크/가짜뉴스성)과 클라이언트 요구가 핵심 변수입니다. 플랫폼/방송사는 자체 기준으로 표기·승인을 요구할 수 있습니다.
Q2. 넷플릭스 납품에서 AI 사용이 완전 금지인가요?
넷플릭스는 GenAI를 “책임감 있게 사용하면 유용한 도구”로 보되, 사전 공유와 특정 조건에서 서면 승인 같은 운영 원칙을 제시합니다.
Q3. 뉴스/시사에서 AI는 어떻게 다뤄지나요?
KBS 가이드라인은 뉴스·시사에서 생성형 AI 결과물을 검증 없이 그대로 사용하지 않는 것을 원칙으로 두고, 사실 왜곡/오도 방지를 강조합니다.
Q4. AI 기본법 시행일은 언제인가요?
해당 기본법은 2026년 1월 22일 시행으로 공표되어 있습니다.

댓글 쓰기