유럽연합(EU)이 오늘부터 ‘허용 불가 위험’으로 규정한 인공지능(AI) 시스템에 대한 규제를 시작했다. 규제 당국은 이제 제품 라인을 삭제할 수 있는 권한을 가지게 됐다. EU의 ‘AI 법’에 따른 첫 번째 준수 기한은 예정대로 2월 2일에 시작됐다. 규칙을 위반하는 경우 최대 3500만 유로(약 527억원) 또는 글로벌 매출의 7% 중 더 높은 금액을 벌금으로 내야 한다.
유럽의회는 지난해 3월 AI 법을 통과시켰고, 지난 8월 1일부터 이 법이 발효됐다. 이제 각 산업의 기업들은 이를 준수해야 한다. EU는 일부 AI 시스템을 블랙리스트에 올렸다. 예를 들어 △중국의 사회 신용 시스템처럼 사람의 행동이나 명성 기반의 평가 시스템 △몰래 사람들의 선택에 영향을 미치거나 잠재의식을 조작하는 AI △연령이나 장애 등을 이용해 사람들을 조종하려는 AI 등이 금지됐다. 얼굴 특성을 기반으로 범죄 예측을 시도하는 AI와 성별, 성적 지향, 정치적 신념을 추정하기 위해 생체 데이터를 사용하는 AI 역시 사용할 수 없다.
기업들은 이러한 규제에 대응하고 있다. 구글, 오픈AI, 아마존 등 100개 이상의 기술 기업들이 ‘EU AI 협약’에 자발적으로 서명해 AI 프로젝트를 정비하고 고위험 또는 금지 카테고리를 식별하겠다고 약속했다. 그러나 메타, 애플, 미스트랄 같은 기업들은 지나치게 엄격한 규제가 혁신을 억제할 것이라며 거부했다. 그럼에도 법을 준수해야 하는 상황이다.
EU AI 법에 따르면 법 집행 기관은 공공장소에서 생체 데이터를 수집하는 AI 시스템을 사용할 수 있지만, 정부 당국의 사전 승인을 받아야 한다. 실종자 추적이나 임박한 공격 방지 같은 비상 상황에서는 예외가 적용되며, 학교와 직장 내 감정 탐지 AI도 의료 또는 안전 이유로 정당화될 경우 사용이 허용된다. AI 법은 단독으로 운영되지 않고, 일반 데이터 보호 규정(GDPR), 네트워크 및 정보 보안 지침(NIS2), 디지털 운영 회복력 법(DORA) 등과 중첩된다.
* 이 기사는 2025년 02월 03일, 04:23 게재된 것으로, 요약해 재전송합니다. 원문 보기 ⇒