이 민호님의 아티클 더 보기

트렌드

강정희 변호사의 IT와 법 이야기 ④AI 시대

생성형 AI의 확대, 혜택만큼 큰 위험이 등장하다

기술 발전을 선도하는 기업은 종종 시장에서 지배적인 위치를 차지합니다. IT 생태계의 변화에 따라 지배적 지위를 누리는 기업이 자연스럽게 바뀌기도 하지만, 때로는 다른 시장으로의 지배력 전이를 막기 위해 경쟁당국의 규제가 행해지기도 하죠. 과거를 알면 미래를 예상할 수 있습니다. 공정거래 전문가인 강정희 법무법인 태평양 변호사와 함께 각 시대별 주요 사건을 되짚으며 기술의 발전과 IT 생태계의 변화를 알아봅니다.


강정희 변호사의 IT와 법 이야기

  1. PC/인터넷 시대: 1990년대, 마이크로소프트(Microsoft)는 운영체제(OS)와 웹 브라우저 시장의 패권을 장악하며 인터넷 시대의 주도적 기업으로 자리매김했다
  2. 모바일 시대: 2000년대 중반 이후 구글은 인터넷과 모바일 환경의 혁신을 이루며 IT 시장의 새로운 패권자로 부상했다
  3. 클라우드&데이터 시대: 네트워크 및 빅데이터 기술의 발달, 증가하는 데이터 수요, 시간과 장소에 구애받지 않는 데이터에 대한 접근 및 맞춤형 경험에 대한 사용자의 기대등이 복합적으로 작용해 모바일 시대는 데이터 중심의 클라우드 컴퓨팅 및 빅데이터 시대로 전환했다.
  4. AI 시대: 2020년대부터 오늘 날까지 데이터의 폭발적 증가, 컴퓨팅 파워의 향상, 그리고 새로운 알고리즘 개발 등 기술 발전은 데이터 시대에서 AI 시대로의 전환을 가져왔다(현재글)

라운드 4. AI 시대: 생성형 AI와 리스크 규제

인공지능(AI) 시대의 시작은 데이터의 폭발적인 증가, 컴퓨팅 파워의 급격한 향상, 그리고 더욱 진화한 알고리즘 개발이라는 기술의 발전으로 특징지어진다. 기술적 발전은 AI 기술을 사회의 모든 영역으로 확장시켰고, 이제 우리는 AI의 혜택을 일상 곳곳에서 체감하고 있다.

기술적 진화 : 데이터와 컴퓨팅 파워의 결합

인터넷의 보급과 디지털화 기기의 사용 증가로 생성되는 엄청난 양의 데이터는 빅데이터 분석과 AI 알고리즘의 훈련에 필수적이다. 이 데이터들은 패턴 인식, 학습, 예측 등 AI가 복잡한 문제를 해결하는 데 중요한 역할을 한다. 또한, 병렬 처리 능력이 뛰어난 고성능 GPU와 TPU와 같은 전용 하드웨어 개발은 AI 모델의 학습과 실행 속도를 대폭 개선하게 됐다.

딥러닝, 강화학습, 전이학습 등 새로운 기계학습 알고리즘의 발전은 AI 기술의 가능성을 크게 확장시켰고, 이 알고리즘은 더 적은 데이터로 더 정확한 학습을 가능케 해 다양한 현실 세계 문제에 적용할 수 있게 됐다. 특히 LLM(Large Language Models, 대규모 언어 모델), 예를들어 OpenAI의 GPT 시리즈와 같은 모델은 수백억 개의 파라미터를 사용해 다양한 언어 작업에 대해 놀라운 성능을 보여준다.

AI가 비즈니스 환경 및 일상생활에 미치는 영향

위와 같은 기술적 진화는 AI 시대의 도래를 가속화하고, 비즈니스뿐 아니라 우리 일상 생활에 깊은 영향을 미치고 있다. 제조부터 서비스업에 이르기까지 AI는 모든 산업에 걸쳐 효율성을 극대화하고, 비용을 절감하며, 새로운 비즈니스 모델을 창출하고 있다. 예를 들어, 공급망 관리, 재고 관리, 고객 서비스 등에서 AI를 통한 자동화는 시간과 비용을 대폭 절감하며 생산성을 높이고, AI는 스마트 홈 기기, 개인 맞춤형 건강 관리, 실시간 교통 업데이트 등 일상생활의 여러 면에서 편리성을 제공하고, 질병 진단, 치료 계획 수립, 환자 모니터링 등의 의료 분야에서 정확도를 높이고, 의료 서비스의 질을 개선하는 데 기여한다.

반면 AI 시스템이 대규모 개인 데이터를 수집하고 분석함에 따라 프라이버시 침해의 위험 증가, 데이터의 편향이 AI 결정에 반영될 경우 특정 인구 집단에 대한 불평등이나 차별 초래, AI의 증가에 따른 인간의 상호작용 감소로 인한 사회적 고립 증가, 인간 대 인간의 연결과 소통의 중요성을 감소시키는 문제 등 부정적 영향에 대한 우려도 함께 제기되고 있는 것이 사실이다. 

생성형 AI 확대에 따른 새로운 유형의 위험 등장

대표적인 생성형 AI인 오픈AI(OpenAI)의 챗GPT(ChatGPT)(자료=openai)

생성형 AI(Generative AI)란, 새로운 것을 생성하는 AI의 일종으로, 이용자의 질문방식이나 질문의도, 질문편향에 따라 새로운 것을 만들어 내는 것에 특화되어 있으며, 훈련 데이터와 유사한 데이터를 생성한다는 특성을 가진다. 이러한 생성형 AI확대에 따라 새로운 유형의 위험이 등장할 가능성이 커졌다.

저작권 등 지식재산권 침해

생성형 AI는 기존의 문서, 이미지, 음악 등을 학습 데이터로 사용해 새로운 콘텐츠를 생성한다. 이 과정에서 AI가 생성한 콘텐츠가 원본 작품의 저작권을 침해할 수 있으며, 원작자의 창작물이 무단으로 사용되는 경우에 저작권자의 권리를 침해하고, 창작자의 창작 동기를 저하시키는 문제가 있다.

데이터와 프라이버시 문제

AI 모델을 훈련시키기 위해 대량의 개인 데이터가 수집되고 이용되는데, 개인의 사생활이 포함된 데이터가 AI 개발에 사용될 경우 개인정보 보호에 심각한 위험이 발생할 수 있다. 또한, 데이터가 부적절하게 관리되거나 유출될 경우 심각한 프라이버시 침해 사고로 이어질 수도 있다.

편향과 차별

생성형 AI는 훈련 데이터의 편향을 그대로 학습할 수 있다. 이는 AI가 성별, 인종, 연령 등에 대한 편향을 가진 결과물을 생성할 수 있으며, 이는 사회적 차별을 야기하고 강화할 수 있다. 예를 들어, AI가 특정 인종에 대해 부정적인 이미지나 텍스트를 자동 생성할 경우, 그로 인한 사회적 불화와 갈등이 증폭될 수 있다.

환각(Hallucination)과 진위 구별 문제

AI 환각 현상은 AI 모델이 실제로는 없거나 사실이 아닌 정보를 사실인 것처럼 말하는 현상을 지칭한다. 생성형 AI가 생성한 텍스트, 이미지, 비디오 등은 실제와 구별하기 어려울 정도로 정교할 수 있으므로, 이는 가짜 뉴스, 딥페이크와 같은 현상을 야기 정보의 신뢰성을 저하시키고, 사회적 혼란을 일으킬 수 있다.

AI 규제 방식에 대한 여러 입장

AI 기술의 급속한 발전과 사회 전반에 미치는 영향력 증대로 인해, AI 규제에 대한 다양한 입장이 존재하는데, 각 입장은 AI 기술의 윤리적, 법적, 사회적 문제에 대한 해결 방식과 범위에 대해 서로 다른 관점을 제시한다. AI가 더욱 발전할 수 있도록 최대한 지원해야 한다는 관점과 AI가 지닌 위험이 실현되지 않도록 관리 및 예방해야 한다는 관점이 존재하고, AI를 규제하는 방식으로 크게 사전규제와 사후규제로 구분된다.

사전규제는 AI가 오작동이나 편향적 판단 등으로 사람들의 특정한 권리나 이익을 침해하기 전에 이를 예방하기 위해 투입되는 규제로 미래지향적인 규제를 의미하고, 사후규제는 AI가 오작동 등으로 사람들의 특정한 권리나 이익을 침해한 경우에 비로소 투입되는 규제로 과거지향적 규제를 의미하는데, 정부가 규제의 주체가 돼 법령에 근거한 규제를 하는 방식 외에도 정부와 민간이 주체가 돼 법령으로 한정되지 않게끔 규제(이른바 자율규제 또는 공동규제)를 하는 방식도 존재한다.

전세계 각국에서 AI에 대한 윤리적 접근이 법적 접근 보다 먼저 시작되었고, 글로벌 수준에서 AI를 다루는 윤리지침이 100개에 육박한다. AI 윤리에 대한 글로벌 리더로서 중요한 역할을 수행하고 있는 유럽연합(EU)은 투명성, 정의 및 공정성, 비차별, 사회적 및 환경적 복지, 개인 프라이버시 보호, 책임성 등을 포함한 7개의 핵심 원칙을 담은 AI 윤리 가이드라인을 발표했다. 미국은 주로 혁신 촉진과 경쟁력 유지에 중점을 두고 있지만, 윤리적 AI 사용에 대한 지침도 마련하고 있는데, 주 정부 및 연방 정부 차원에서 다양한 AI 윤리 이니셔티브를 실행 중이다. OECD와 G20은 회원국 간의 협력을 통해 AI 윤리 규범을 개발하고 있으며, OECD의 AI 원칙은 투명성, 인간 중심의 가치 및 공정성, 안전 및 보안, 책임성을 강조한다. 이러한 국제 기구의 노력은 전 세계적으로 일관된 AI 윤리 표준을 마련하고, 국가 간의 기술 격차를 해소하는 데 중요한 역할을 한다.

AI 관련 법 적용 움직임

뉴욕타임즈(New York Times, NYT)와 OpenAI의 소송

뉴욕타임즈는 작년 챗GPT 학습에 대한 저작권 침해 소송을 제기했다(자료=reuters)

2023년 12월 27일, 뉴욕타임즈(NYT)는 미국 뉴욕 남부 지방법원에 오픈AI가 뉴욕타임즈의 저작권이 있는 기사 수백만 건을 무단으로 사용해 대규모 언어 모델을 훈련한 것은 저작권 침해라고 주장하며 오픈AI와 마이크로소프트(Microsoft)에 소송을 제기했다. 이 소송은 AI와 저작권법 관련해 가장 중요한 사건 중 하나로 전세계에서 그 결과에 귀추가 주목되고 있다. 

뉴욕타임즈는 오픈AI측이 허락 없이 자신의 저작권이 있는 작품 및 자료 등을 챗GPT를 포함한 생성형 AI 모델을 훈련하는데 사용한 것이 저작권 침해일 뿐만 아니라 자사에 경제적 손해를 가져왔다고 주장하는 반면, 오픈AI측은 자사의 행동이 온라인 데이터 사용에 관한 ‘공정 이용’ 원칙에 부합하며 NYT의 청구원인은 근거 없다고 반박하고 있다.

이 사건은 AI 시스템 및 모델 훈련에 사용되는 자료의 범위에 관해 중요한 법적 선례가 될 것이므로, AI 산업 생태계 뿐 아니라 법률 커뮤니티에서도 많은 관심을 가지고 있다. 소송 결과는 AI 모델 개발 시 훈련 데이터와 AI 개발자 및 회사의 법적 의무와 관련 미래의 AI 모델 개발 방식에 영향을 중대한 미칠 것이다.

세계 각국 규제당국의 엔비디아(NVIDIA) 조사

미국 법무부(DOJ)와 연방거래위원회(FTC)는 이미 GPU 시장에서 지배적인 위치를 차지하는 엔비디아가 AI 연구 및 개발을 위한 고급 컴퓨팅 솔루션을 제공하는 이스라엘 AI 스타트업 런AI(Run:ai)를 인수한 것이 AI 시장에서의 경쟁에 미치는 영향을 조사하고 있다. 경쟁당국은 특정 기업 간의 합병, 인수 또는 합작 투자가 시장에 미칠 영향을 평가하고, 경쟁 제한적인 효과가 있는지 검토해 기업결합을 (조건부) 승인 또는 거부할 수 있다.

유럽연합은 현재 엔비디아의 시장지배적 지위 남용에 대해 조사하고 있다(자료=reuters)

또한, 유럽연합(EU) 및 프랑스 경쟁당국은 엔비디아의 시장지배적 지위 남용행위에 대해 조사하고 있다. 엔비디아의 GPU는 대규모 AI 모델 훈련 및 추론에 없어서는 안 될 존재가 되었고, H100 프로세싱 유닛 덕분에 엔비디아의 시장점유율은 80%를 넘는다. 따라서 위 경쟁당국은 엔비디아가 칩 공급에 미치는 영향 및 지속적인 칩 부족이 가격에 미치는 영향 등을 집중적으로 조사 엔비디아의 시장 지배력이 경쟁에 미치는 영향과 데이터 및 기술 접근의 공정성을 검토하고 있다.

이처럼 AI 비즈니스 출현 및 생태계 변화로 인해 종래 법적용 영역에서 판단기준 및 평가요소의 변화가 있을 것으로 예상된다. 또한 아래에서 보는 바와 같이 새로운 기술 및 상품서〮비스의 등장으로 인한 신규 리스크 관리 및 사회적, 윤리적, 법적 기준 확립을 위해 AI에 관한 기본법 제정 움직임이 있다.

AI 관련 국내외〮 법제 동향

인공지능 기술의 발전과 함께 개인정보 보호, 윤리적 문제, 안전성 등 다양한 이슈가 대두되면서 이를 규범적으로 규율하려는 움직임이 전 세계에서 활발하게 이루어지고 있다. 유럽연합(EU)은 AI 규제에 있어 선도적인 역할을 하고 있으며 세계 최초의 포괄적 인공지능 규제법인 인공지능법(the Artificial Intelligence Act)”을 제정했다. 2024년 8월 1일 발효된 이 법은 AI 시스템의 위험도를 평가하고, 위험 수준에 따라 각기 다른 규제를 적용 소비자 보호와 기술 혁신 간의 균형을 추구하고자 한다. 이러한 선제적 접근은 EU가 글로벌 AI 시장에서 표준을 정립하고, AI 기술의 책임 있는 사용을 촉진하기 위한 전략의 일환으로 이해될 수 있다.

한편, 미국은 AI 산업의 선두주자로서 미국인공지능진흥법(Advancing American AI Act)을 제정하고, 행정명령 등을 통해 인공지능 주도권을 잡기 위한 노력을 하고 있다. 위 행정명령을 통해 AI 기술의 혁신을 촉진하는 동시에 개인정보 보호와 소비자 권리를 보장하기 위한 포괄적인 정책 방향을 제시하고 있는데, EU와는 대조적으로 시장의 자율성을 존중하고 필요할 경우에만 개입하겠다는 정책적 방향성을 보여준다.

우리나라도 2024년 5월 과학기술정보통신부와 외교부가 ‘AI 서울 정상회의’와 ‘AI 글로벌 포럼’을 서울에서 개최하는 등 AI와 관련해 국제적 주도권을 잃지 않기 위한 노력을 계속하고 있다. 또한 22대 국회가 시작(2024. 5. 30.)되면서 종전에 회기 만료로 폐기되었던 AI 법안이 재발의 돼 현재까지 11개의 AI 관련 법률안이 발의 된 상황이다. 또한, ‘국가인공지능위원회 설치 및 운영에 관한 규정(이하 대통령령)’에 따라 지난 9월 26일 대통령 직속으로 ‘국가인공지능위원회’가 출범해 인공지능 관련 주요 정책, 연구개발 및 투자전략 수립, 데이터센터 등 인프라 확충, 규제발굴 및 개선, 인공지능 윤리원칙의 확산, 인공지능 발전에 따른 교육·노동·경제 등 각 영역의 변화와 대응 등 국가 인공지능 정책 전반을 심의 및 조정하게 될 것이라고 한다.

결어

우리나라 인공지능법 입법추진 계획을 두고 EU 인공지능법과 유사하게 엄격한 내용으로 규정돼 자칫 인공지능 산업 발전을 저해하는 것 아닌지 우려의 목소리가 높다. 한편으로는 어느 범위까지의 AI 개발 및 상용화가 법적으로 허용되는 것인지 기준이 모호 규제 수준과 상관없이 무조건 빨리 법이 제정되는 편이 좋다는 의견도 있다.

기술 발전이 가져올 수 있는 잠재적인 위험을 최소화하고, 사회적 신뢰를 구축하며, AI 기술의 책임 있는 사용을 촉진하기 위한 법·제도적 뒷받침은 필수적이라고 생각한다. 다만, AI 기술 및 산업 생태계에 대한 각국의 접근 방식은 그들의 규제 철학과 시장 구조에 따라 차이가 있을 것이다. 법을 만들 때에는 기술의 성숙도, 시장상황, 정부의 역량, 법적·문화적 환경 등을 모두 고려해야 한다. 우리나라 AI 기업도 미국이나 유럽에서 사업활동을 해야 하므로 인공지능 법제화에 있어 글로벌 스탠다드를 따를 수밖에 없다고 하더라도 우리나라 기업의 실정 및 생태계가 수용할 수 있는 수준이 어느 정도인지 깊이 고민해야 할 것이다.

강정희 변호사
강정희 변호사는 공정거래법 박사이자 대법원에서 공정거래 전담 재판연구관을 지낸 공정거래 전문가입니다. 삼성전자 사내변호사로 근무하며 IT 관련 사건에 대한 풍부한 경험을 쌓았고, 현재는 법무법인 태평양에서 AI 전문가로 활약하고 있습니다.

■ 現 법무법인 태평양 변호사
■ 前 대법원 재판연구관
■ 前 삼성전자 수석변호사
■ 前 법무법인 에이펙스 변호사

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다