[한국뉴스타임=편집국] 인공지능 기반 대규모 언어모형 ‘챗GPT(ChatGPT)*’의 등장으로 EU의 '인공지능법(AI Act)' 추진에 차질이 발생할 우려가 제기됐다.
챗GPT와 같은 이른바 '대규모 언어모형(Large Language Model, LLM)'은 단일 목적의 AI가 아닌, 음악, 소설, 시 등의 창작에서 컴퓨터 코드, 정책 설명 및 가짜뉴스 작성 등에 사용될 수 있는 이른바 '일반목적 AI'로 분류. 실제 콜롬비아의 판사가 챗GPT를 판결문 작성에 활용한 것을 인정, 논란이 된 바 있다.
EU 집행위는 2021년 사회신용점수, 인간 조종적 AI(Manipulative AI) 및 일부 안면인식 AI의 사용을 금지하고, 일부 특정 AI 시스템을 '고위험 AI'로 지정하여 개발자에 대해 투명성, 안전성 및 인간에 의한 감시 등 요건을 부과하는 내용의 AI 법(안)을 제안했다.
작년 12월 AI 법안을 승인한 EU 이사회는 집행위에 대해 '일반목적 AI'의 사이버보안, 투명성 및 위험관리 요건 강화를 주문한 바 있으며, 챗GPT 등장으로 유럽의회 일부 정파는 대규모 언어모형 AI를 이른바 '고위험 AI' 리스트에 추가해야 한다는 의견이 제시했다.
유럽의회는 챗GPT 및 유사 AI 모형 개발자와 사용자에 대해 기술 위험관리 및 투명성 등에 대한 보다 엄격한 의무를 부과하고, 일반 사용자에 대해서는 낮은 수준, 대형 서비스사업자에 대해서는 높은 수준의 관리 의무 및 제한을 부과해야 한다고 지적했다.
특히, 교육, 고용, 은행, 사법당국 등은 이런 유형의 AI 사용이 개인의 기본적인 인권에 상당한 위험을 초래할 수 있다는 점을 반드시 인지해야 한다고 강조했다.
다만, 이에 대해 유럽의회 국민당그룹은 챗GPT와 같은 일반목적 AI를 고위험 AI에 추가하면, 위험성이 없는 상당수의 AI가 고위험 AI에 포함되게 될 것이라며 반대 입장이다.
반면, 시민단체 등은 챗GPT 등 산문형 AI만을 고위험 AI에 추가하는 것은 위험성을 내포한 다른 형태의 일반목적 AI 규제에 역부족이라며 비판적. 특히, 일부 전문가들은 챗GPT의 윤리적 세계관 결여 및 진실에 대한 무감각을 지적, 신뢰할 수 없는 AI라고 강조했다.
EU 이사회, 유럽의회 및 EU 집행위는 이르면 오는 4월경 인공지능법 최종 타협안 마련을 위한 3자협상을 개시할 예정인 가운데 챗GPT에 대한 규제 방안을 둘러싼 논란으로 협상이 난항에 이를 수 있다는 지적이다.
한편, 챗GPT가 인공지능법의 규제 대상이 되어야 하는지에 대한 질문에 챗GPT는 '유해하고 진실을 오도할 수 있는 컨텐츠를 창작할 수 있는 잠재성에 근거, 생성형 인공지능(generative AI)과 대규모 언어모형 인공지능을 고위험 기술로 지정해야 한다고 답변했다.
또한, EU에 대해 적정한 보호장치, 모니터링 및 메커니즘 감시를 포함, 동 기술사용과 관련 책임 있는 개발, 보급 및 사용을 위한 프레임워크 마련을 검토해야 한다고 답변했다.