EU AI Act (2024) — 세계 최초 포괄 AI 규제법
본 운동에서의 자리
연대지능 혁명이 짚는 자리는 이것이다 — 누가 AI의 위험을 규정하는가. EU AI Act는 빅테크가 스스로 만들고 스스로 배포하는 AI에 처음으로 외부 규율의 틀을 씌운 자리다. 그 점에서 이 법은 지능 무산자들에게 의미를 갖는다.
그러나 이 법을 짚을 때 한 가지를 분명히 해야 한다. EU AI Act는 규제의 운동이지 연대의 운동이 아니다. 법이 상정하는 주체는 여전히 기업과 국가다. 시민사회와 협동조합, 사회연대경제 조직이 AI를 짓는 자로 명시되지 않는다. 이 법은 빅테크의 폭주를 늦추는 데는 자리를 갖지만, 연대지능의 자리를 짓는 데까지 손을 뻗지는 않는다.
핵심 결
공포: 2024년 8월 1일 발효, 단계별 시행(2026~2027년 완전 적용) 형식: EU 규정(Regulation, 직접 적용력) — 회원국 입법 불필요 구조: 위험 기반(risk-based) 4등급 분류
| 위험 등급 | 예시 | 규율 |
|---|---|---|
| 허용 불가(Prohibited) | 사회 신용점수, 대중 감시 | 전면 금지 |
| 고위험(High-risk) | 채용·의료·교육 판단 AI | 적합성 평가, 등록, 투명성 의무 |
| 제한적 위험(Limited) | 챗봇, 딥페이크 | 공개 의무 |
| 최소 위험(Minimal) | 스팸필터, 게임 | 자율 규제 |
운동의 어휘로 읽으면: 고위험 AI를 누가 배포하느냐가 곧 권력의 자리다. 채용·의료·교육의 AI 판단이 특정 기업의 손에 집중될 때, 지능 무산자는 자기 운명을 측량하는 알고리즘에 이의를 제기할 자리를 잃는다.
본 책에서 이 자리가 자라나는 결
4편 「도구 선택의 윤리」에서 AI 인프라를 어디서 빌리느냐를 따질 때, EU AI Act는 규제 환경의 지도로 기능한다. Anthropic이 PBC 거버넌스를 택한 이유의 한 배경이 여기에 있다. 3부 「다른 AI 흐름과의 구별」에서 정부 주도 AI를 비판할 때, EU AI Act가 국가 규제의 한계를 보여주는 사례가 된다.
본 운동의 비판적 짚음
EU AI Act는 공급자 중심 규제다. 누가 AI를 만드느냐를 규율하지, 누가 AI를 함께 짓느냐를 장려하지 않는다. 협동조합이나 사회적경제 조직이 소규모 도메인 AI를 짓는 자리에 대한 지원 조항은 부재하다. 법이 전제하는 AI 주체는 대형 사업자다.
더 근본적으로: 이 법이 허용하지 않는다고 명시한 것들이 현재 빅테크의 일상적 관행이다. 감시·예측·사회 신용의 구조는 법 이전에 이미 데이터 경제의 기반이다. 규제가 따라가는 속도가 기술 침식의 속도를 따라잡지 못하는 자리에서, 연대지능 혁명은 법의 바깥에서 다른 자리를 짓는 운동이어야 한다.
한국 자리 비교
한국은 2026년 1월 22일부터 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」(법령ID 014820)을 시행 중이다. 제2조가 “고영향 인공지능”을 정의하며 기본권 침해 위험이 높은 AI에 별도 규율을 부과한다. EU AI Act의 고위험 분류 논리와 구조를 공유하나, EU 법보다 규율 밀도가 낮고 기업 자율에 크게 의존한다.
주목할 자리: 한국 AI 기본법에는 사회연대경제 조직의 AI 접근권 조항이 없다. 중소기업·스타트업 지원 조항만 있을 뿐, 협동조합·비영리·SSE 조직을 별도 주체로 세우지 않는다.