불러 오는중

검색 입력

EU, 인공지능(AI) 개발 윤리 가이드라인 공개…’투명성’ ‘차별금지’가 핵심

유럽연합집행위원회(EC)는 지난 8일(현지시간) AI시스템 개발과 관련된 윤리 가이드라인을 공개함. 이는 규제당국이 뜻밖의 부정적 결과를 낳을 수 있는 이머징 기술에 대응할 수 있도록 지원하기 위함.

EU는 그동안 데이터 프라이버시법 등 테크 관련 규제에 있어서 세계적으로 선도적 위치에 보여 옴. AI는 EU에도 최신 규제 영역에 해당함.

EC는 AI 개발과 신뢰 구축을 위한 7가지 원칙을 세움. 이들 원칙은 구속력은 없지만 향후 수년간 취해질 조치의 근간이 될 수 있음. 향후 파일럿 프로그램을 통해 대형 테크 기업들과 함께 제기된 다양한 의문과 과제를 논의할 예정.

○ 투명성 = 디지털경제와 관련해 EU의 최고위 담당자인 마리야 가브리엘은 “사람들이 알고리즘이나 로봇과 접할 때는 반드시 그 사실을 제공 받아야 한다. 알고리즘에 의한 어떤 결정도 증명과 설명이 가능해야 한다”며 AI시스템을 사용중인 기업들은 일반 대중에 투명해야 한다고 말함.

예를 들어 알고리즘에 의해 특정 민원을 거절한 보험 회사가 있다면 해당 회사는 고객이 어떻게, 왜 그 같은 결정이 이뤄졌는지 알수 있도록 해야 함.

EC는 미래의 AI 시스템은 모든 라이프사이클에서 안전하고 믿을만 해야 한다고 밝힘. 또 데이터 보호와 사용자 주도의 정보제어 또한 중요하다고 덧붙임. 가이드라인은 동시에 AI시스템을 운영하는 사람들에게도 동일한 책임을 부여함.

○ 차별 금지 = 가브리엘은 또 만일 고용 과정에서 알고리즘 사용시 남녀간 차별이 발생할 수 있는 것처럼 “편향된 데이터가 입력되면 정말 문제가 될 것”이라며 AI의 공정성을 강조함.

하지만 비영리단체 알고리즘와치의 공동 설립자는 “신뢰할만한 AI에 가이드라인의 방점이 있지만 이는 잘 정의된 것이 아니기 때문에 문제의 소지가 될 수 있다”며 ‘누가 신뢰하고 누가 신뢰받는가?’와 같은 문제가 나타날 수 있음을 시사함.

또 가이드라인 초안 작업을 도운 토마스 멧징거 마인츠대 교수도 AI를 활용한 무기 개발을 금지하지 않은 것을 비판함. 일부에선 가이드라인이 향후 각론에서 기업, 특히 중소기업들의 혁신에 미칠 영향을 우려함.

Tags:

뉴스레터를 구독하시면 매일 인사이팅해집니다.
구독을 신청하시면  본 서비스의 개인정보취급정책(클릭 보기)에 동의한 것으로 간주합니다.
구독
close-image