유럽의회는 지난 3월 13일 프랑스 스트라스부르에서 열린 회의에서 AI법(Ai act)를 가결하였습니다. 법안은 유럽 전역에 적용되는데 발효 6개월 후부터 시행에 들어갈 예정이라합니다.
법안에는 영화 마이너리티리포트의 범죄 예측 시스템과 같은 기술 원천을 금지하는 조항도 들어가 있는데요. 이는 아래 본문의 4단계에서 상세히 설명하겠습니다.
1. 법안 논란
기술 개발에 대해서 안전한 개발을 중요시 하시나요, 기술의 우선적인 개발을 중요시 하시나요?. 이번 AI 법안에 대한 논란은 이 부분이 핵심입니다. AI 기술의 빠른 개발을 위한 모든 규제에 반대하는 효율적 가속주의와 부작용을 우려하며 안전한 개발을 주장하는 효율적 이타주의의 대립인데요. EU의 AI법은 효율적 이타주의를 반영하고 있으며, 기술 개발을 중시하는 측에서는 이에 대해 반론을 제기하고 있습니다.
유럽에서 효율적 이타주의를 반영하는 이유는 전통적인 인권 중시 사상과도 연관되어 있습니다. GDPR이라 하는 개인정보 관련 법안도 EU에서 먼저 발효됐었죠. AI를 선도하고 있는 미국과는 반대의 입장이고, 유럽에서 사업을 해야하는 미국의 기업에도 적지 않은 영향을 미칠 것으로 보입니다.
2. 법안 주요 내용
위험 피라미드라고 하는 법안의 핵심 내용이 있습니다.
AI법에서는 AI 시스템의 부정적 영향을 효과적으로 막기 위해 위험 기반 접근을 강조하며, 위험을 4가지로 구분했습니다.
2-1. 저위험 - 의무 없음
2-2. 제한적 위험 - 투명성 의무 준수
감정인식과 생체정보 기반 범주화(분류), 딥페이크
2-3. 고위험 - 의무 요건 준수
고용 및 인사 관리, 출입국 관리, 안전 구성요소(전기 등 시스템 관리) 등
2-4. 수용 불가능한 위험 - 원천 금지
잠재 의식 조작, 연령 및 장애 등에 따른 착취, 사회 평점 시스템, 실시간 원격 생체정보 인식
이렇게 나눠져 있고, 제공자냐 배포자냐 등에 대해 구체적으로 다르긴하지만 핵심 내용은 위험에 따른 의무가 적용되고, 의무를 수행하지 않을 시 엄청난 벌금이 부과된다는 것입니다.
위에서 말한 영화 마이너리티리포트의 범죄 예측 시스템은 2-4 수용 불가능한 위험에 해당(사회 평점 시스템)됩니다. 그래서 원천 금지로 절대 도입될 수 없습니다.
고위험에는 시민들의 일상 생활에 영향을 줄 수 있는 것들이 포함되어 있습니다. 전기와 같은 에너지 관리, 고용 및 인사 관리(사람들에 대한 일부 평가)들입니다. 이 경우 공식 문서, 기록 보존, 인간에 의한 감독이 필수로 진행되어야 합니다.
제한적 위험에 딥페이크가 있다는 것이 의외였습니다. 딥페이크는 잘 못 사용하면 고위험에 해당한다고도 보는데 의외로 제한적 위험에 속해있네요. 제한적 위험에 있는 것들은 투명성 고시, 예를 들어 "이 콘텐츠는 딥페이크로 만들어졌다"와 같은 문구가 포함되어 있어야 합니다.
우리가 현재 일상에서도 사용하고 있는 AI 기능, 예를 들어 유튜브나 넷플릭스의 AI 기반 영상 추천 시스템 등은 저위험에 해당되며 의무가 없습니다.
'테크' 카테고리의 다른 글
[제미나이] 구글IO 2024 내용과 구글의 미래 (0) | 2024.05.15 |
---|---|
[GPT] GPT-4o 모델과 영화 Her (0) | 2024.05.14 |
OpenAI, 샘 올트먼이 꿈꾸는 AGI (0) | 2024.02.13 |
[GPT] 파인튜닝 모델로 엑셀 결과물 생성하기 (0) | 2024.02.07 |
[GPT] 파인튜닝(Fine tuning) 하는 방법, 파이썬 코드 (0) | 2024.02.05 |