[한국뉴스타임=편집국] 유럽의회는 'EU 인공지능법(AI Act)'에 대한 정파간 정치적 합의에 도달, 11일(목) 소관 위원회 표결과 6월 본회의 표결을 통해 최종 확정할 예정이다.
유럽의회의 모든 정파가 인공지능법에 관해 합의함에 따라, 추후 일부 기술적인 조정 가능성이 남아있으나 본회의에서 합의안이 통과할 가능성이 높은 상황이다.
일반목적 인공지능(General Purpose AI)
가장 논란이 되던 일반목적 인공지능 규제와 관련, 챗GPT와 같은 일반목적 AI를 규제하는 이른바 '파운데이션 모델'이란 세부 카테고리를 설정, 보다 강화된 규제를 도입한다.
특히, 유럽의회는 일반목적 인공지능의 경우 디자인 및 개발 단계에서 EU법, 표현의 자유 등 기본권 보호 강화 의무 부여했다.
금지된 인공지능 분야
예기치 않은 위험 초래 가능성에 따른 인공지능 사용 금지 분야와 관련, 생체인식 소프트웨어, 의도적 조작(Purposeful Manipulation), 감정인식 소프트웨어, 예측치안(Predictive Policing) 등을 인공지능 금지 분야로 지적했다.
일부 정파는 인공지능을 통한 모든 인간간의 통신에 대한 모니터링 금지를 요구했으나, 최대 정파 국민당그룹(EPP)이 이를 강력 거부, 채택되지 못했다.
생체인식 소프트웨어의 경우 당초 실시간 사용만이 금지됐으나, 유럽의회는 사후 사용의 경우도 심각한 범죄 적발을 위한 경우로 법원의 승인 아래 사용할 수 있도록 제한했다.
감정인식 소프트웨어의 경우 사법, 국경관리, 직장 및 교육 분야 등에서의 사용이 금지되며, 예측치안의 경우 경찰 사법 이외 ㄹ행정 분야에서도 사용이 금지된다.
고위험 분야 (High-Risk AI and Use)
이른바 '고위험 분야'는 인공지능의 사용과 관련하여 위험 관리, 투명성 및 데이터 거버넌스 등에 관한 보다 강화된 규제가 적용된다.
당초 법안은 부칙 3(Annex III)*에 해당하는 인공지능 분야 및 사용의 경우 고위험 분야로 지정했으나, 유럽의회는 부칙 3에 해당하는 인공지능 분야 및 사용의 경우에도 보건, 안전 및 기본권 등에 심각한 위해를 초래하는 경우를 고위험 분야로 지정했다.
특히, '심각한 위해'는 위해의 정도, 강도, 발생 가능성 및 효과의 지속성 등의 종합적 결과와 개인이나 다수 또는 특정 그룹에 대한 영향을 고려하여 판단토록 규정했다.
또한, 녹색당그룹의 요구에 따라, 에너지 그리드 등 중요 인프라 분야에 사용되는 인공지능의 경우 심각한 환경적 위험을 초래할 가능성이 있는 경우에는 고위험 분야로 분류했다.
국민당그룹의 요구에 따라, 디지털서비스법(DSA)에서 규정한 이른바 '거대온라인플랫폼(Very Large Online Platform, VLOP)'도 고위험 분야에 포함키로 합의했다.
왜곡 정보 탐지(Detecting biases)
유럽의회는 성적 지향성 또는 종교적 신념 등 민감 개인정보를 처리하는 고위험 분야 인공지능 서비스 제공자는 익명, 가명 또는 암호화 처리 등을 통해 왜곡된 정보가 공개되지 않도록 보장하도록 요구했다.
또한, 인공지능 서비스 제공자는 민감 정보의 판단을 통제된 환경에서 수행해야 하며, 민감 정보가 제3자에게 이전되지 않도록 하고, 왜곡된 것으로 판단된 정보는 삭제해야 한다.
일반 원칙(General Principle)
일반 원칙은 인공지능 서비스제공자에 대해 새로운 의무를 부여하지는 않지만, 인공지능 기술표준 또는 안내문 등에 인공지능에 관한 기본 원칙으로 적용되어야 한다.
유럽의회는 인공지능의 일반원칙으로 인간에 의한 감시, 기술적 안정성, 개인정보 보호 및 데이터 거버넌스, 투명성, 사회 및 환경, 다양성, 비차별성 및 공정성 등을 제시했다.
지속가능한 고위험 분야 인공지능
위험 분야 인공지능 시스템은 환경발자국에 대한 기록을 보관해야 하며, 파운데이션 모델의 경우 유럽 환경기준을 준수해야 한다.