디지털 아트의 AI 보호 무력화하는 새 도구 등장
예술가들의 작품이 AI 훈련에 무단으로 활용되지 않도록 막아주는 보호 도구를 우회할 수 있는 새로운 기술이 등장했다. 이에 따라, 예술가와 AI 기업 간 저작권을 둘러싼 공방이 새로운 국면에 접어들게 됐다.
예술가들이 자신의 작품이 생성형 AI의 학습에 무단으로 활용되는 것을 막기 위해 사용해온 보호 기술들이 ‘라이트셰드(LightShed)’라는 새로운 기술의 등장으로 위협받고 있다. 예술계와 AI 업계 사이에서 수년째 이어져 온 기술·법·문화적 ‘밀고 당기기’가 또 한 번 중요한 국면을 맞이한 셈이다.
이미지를 생성하는 생성형 AI 모델은 가능한 한 다양한 시각 자료를 학습해야 성능을 높일 수 있는데, 이 과정에서 저작권자의 동의 없이 수많은 예술 작품이 데이터 세트에 포함돼 사용된 것으로 알려져 있다. 이에 따라 AI가 특정 작가의 스타일을 흉내 내거나 작품을 모방하면서, 궁극적으로 예술가들의 생계를 위협할 수 있다는 우려가 꾸준히 제기돼 왔다.
이런 흐름 속에서 2023년에는 예술가들이 자신의 작품을 보호할 수 있도록 도와주는 기술들이 등장했다. 대표적인 예가 ‘글레이즈(Glaze)’와 ‘나이트셰이드(Nightshade)’다. 이 두 도구는 AI가 훈련용 데이터로 해당 이미지를 학습할 때 오류를 일으키도록 유도해, 결과적으로 작품의 무단 활용을 방지하는 방식이다. MIT 테크놀로지 리뷰는 이 두 기술을 개발한 숀샨(Shawn Shan)을 지난해 ‘올해의 혁신가’로 선정한 바 있다.
그러나 최근 공개된 라이트셰드는 이 같은 보호 기술들을 우회할 수 있도록 설계돼 이미 방어 조치를 취한 작품조차 다시 AI 훈련에 활용될 수 있는 길을 열어준다.
라이트셰드를 개발한 연구팀은 예술가의 작업을 훔치려는 의도는 없었다고 강조한다. 이들은 다만 이러한 보호 기술이 완벽한 방패막이라고 믿는 과도한 안도감에 경고를 주고 싶었다고 설명한다.
케임브리지대학교 박사과정 연구원이자 관련 논문의 제1저자인 하나 푀르스터(Hanna Foerster)는 “기업들이 이런 ‘독소(보호 조작)’를 제거할 수 있는 방법을 이미 알고 있으면서도 이를 공개하지 않을 수 있다”며 “그럴 경우 상황을 바로잡기에는 이미 너무 늦어 있을지도 모른다”고 지적했다.
AI 모델은 이미지를 분류하는 과정에서 서로 다른 시각적 범주 간 경계를 설정하며 학습한다. 글레이즈와 나이트셰이드는 바로 이 경계를 교란시키는 방식으로 작동한다. 두 도구는 예술 작품의 픽셀을 눈에 띄지 않을 정도로 미세하게 조작해, AI가 이를 전혀 다른 이미지로 인식하게 만든다. 이미지의 품질은 그대로 유지되지만 모델의 인식 체계를 혼란에 빠뜨리는 것이다. 이처럼 미세한 픽셀 조작을 전문 용어로 ‘섭동(perturbation)’이라 부르는데, AI가 해당 작품을 올바르게 학습하지 못하게 만드는 핵심 기법이다.
두 도구는 작동 방식에서도 차이를 보인다. 글레이즈는 AI가 예술가의 스타일을 잘못 해석하게 만든다. 예컨대 사실적인 유화 작품을 만화처럼 인식하도록 유도하는 식이다. 반면 나이트셰이드는 이미지의 주제 자체를 흐려 놓는다. 고양이를 그린 그림을 개로 받아들이게 만든다. 글레이즈가 작가 고유의 스타일을 보호하기 위한 수동적 방어 수단이라면, 나이트셰이드는 인터넷을 통해 예술 작품을 무단 수집하는 AI 모델을 겨냥한 보다 적극적인 ‘공격형’ 도구라고 할 수 있다.
푀르스터는 독일 다름슈타트 공과대학교와 미국 텍사스대학교 샌안토니오 캠퍼스 연구진과 함께 라이트셰드를 공동 개발했다. 이 기술은 글레이즈나 나이트셰이드 같은 보호 도구가 예술 작품에 어떻게 ‘디지털 독소’를 주입하는지 학습한 뒤, 그 독소를 정밀하게 제거하는 방식으로 작동한다. 연구팀은 오는 8월, 세계적 권위의 사이버보안 컨퍼런스인 ‘유스닉스 보안 심포지엄(Usenix Security Symposium)’에서 해당 연구 결과를 발표할 예정이다.
라이트셰드는 다양한 조건의 이미지를 학습하며 훈련됐다. 연구진은 글레이즈와 나이트셰이드 등 보호 도구가 적용된 이미지와 적용되지 않은 이미지를 함께 입력해, 도구가 만들어낸 ‘오염’만을 구분해 낼 수 있도록 했다. 푀르스터는 이 과정을 “오염된 이미지에서 ‘독소만’을 복원하는 법을 라이트셰드에게 가르치는 것”이라고 설명했다. AI 모델을 실제로 혼란에 빠뜨리는 조작의 강도를 정확히 파악할 수 있다면, 그 조작만 정밀하게 제거해 작품을 다시 학습 가능한 상태로 되돌릴 수 있다는 논리다.
실제로 라이트셰드는 매우 정교하게 작동한다. 이전에도 일부 연구자들이 보호 도구를 우회하는 간단한 기법을 제시한 바 있지만, 라이트셰드는 그보다 훨씬 더 유연하고 강력하다. 예를 들어 나이트셰이드만 학습했더라도, 미스트(Mist)나 메타클록(MetaCloak) 같은 다른 도구에까지 사전 학습 없이 대응할 수 있다. 다만 소량의 섭동에는 상대적으로 취약한 편이다. 하지만 이런 수준의 조작은 원래부터 AI 모델에 큰 혼란을 주지 않기 때문에 AI 입장에서는 손해 볼 게 없고, 작가 입장에서는 방어 효과가 크지 않아 오히려 ‘이중의 손해’로 이어질 수 있다.
현재까지 약 750만 명이 글레이즈를 다운로드했으며, 이들 중 상당수는 팔로워 규모가 크지 않고 자원이 제한된 예술가들이다. AI 학습과 저작권을 둘러싼 규제가 여전히 모호한 상황에서, 이들은 글레이즈 같은 도구가 최소한의 기술적 방어선 역할을 해준다고 믿고 있다.
그러나 라이트셰드를 개발한 연구진은 이러한 도구들이 궁극적인 해법은 아니라는 점을 분명히 한다. 푀르스터는 “보호 기술을 더 발전시키기 위해 더 나은 아이디어들을 계속 고민해 나가야 할 것”이라고 말했다.
글레이즈와 나이트셰이드를 만든 개발자들 역시 이 같은 현실을 인지하고 있다. 실제로 라이트셰드 개발이 시작되기 훨씬 이전부터, 나이트셰이드 공식 웹사이트에는 이 도구가 ‘장기적인 방어 수단은 아닐 수 있다’는 경고 문구가 명시돼 있었다. 두 도구를 개발한 션 샨(Shawn Shan) 역시 완벽한 방어는 어렵다는 데 동의하면서도, 이 같은 기술들이 여전히 의미 있는 역할을 한다고 믿고 있다.
샨은 “이건 일종의 억지책”이라며 “예술가들이 자신의 작품이 무단으로 사용되는 문제를 얼마나 진지하게 받아들이고 있는지를 AI 기업들에 분명히 전달하는 수단”이라고 설명했다. 그의 목표는 “AI 기업이 예술가들과 협력하는 편이 더 낫다고 느낄 정도로, 가능한 많은 장애물을 만들어내는 것”이다. 그는 “대부분의 예술가들도 이 기술이 임시방편이라는 점은 인식하고 있다”면서도 “그럼에도 불구하고 자신의 작품이 원치 않게 활용되는 것을 막기 위한 저항은 충분히 가치 있는 일”이라고 강조했다.
푀르스터는 라이트셰드 개발을 통해 얻은 통찰을 바탕으로, 새로운 형태의 보호 기술도 구상하고 있다. 그중 하나가 AI 모델을 거친 뒤에도 흔적이 남는 ‘워터마크’를 삽입하는 방식이다. 물론 그녀 역시 이 같은 기술이 영구적인 보호 수단이 될 수는 없다고 본다. 다만 “AI로 기울어진 무게추를 다시 예술가 쪽으로 되돌리는 데는 분명 어느 정도 도움이 될 수 있을 것”이라고 기대했다.
The post 디지털 아트의 AI 보호 무력화하는 새 도구 등장 appeared first on MIT 테크놀로지 리뷰 | MIT Technology Review Korea.