
유럽 연합의 인공 지능 응용 프로그램을위한 위험을 기반으로 한 혁신적인 규제 인 EU AI법의 완전 및 최종 텍스트가 블록의 공식 저널에 게재되었습니다.
20일 후인 8월 1일, 새 법률이 시행되고 24개월 후, 즉 2026 년 중순까지 AI 개발자에게 법률의 규정이 일반적으로 적용될 것입니다. 그러나 이 법은 유럽 연합의 AI 규칙 체계를 실행하는 계단식 접근 방식을 취하므로 그 때까지 현재 및 그 이후의 다양한 마감 시한이 있다는 것에 유의해야합니다. 차이가 적용됩니다.
EU 입법자는 올해 12 월 블록의 AI에 대한 체계적인 규정으로의 정치적 합의를 이루었습니다.
이 프레임워크는 사용 사례 및 인식 된 위험에 따라 AI 개발자에게 다양한 의무를 부여합니다. 대부분의 AI 사용 사례는 저위험으로 간주되므로 규제되지 않지만 일부 AI의 잠재 사용 사례는이 법에 따라 금지됩니다.
인공 지능의 태양 카지노 사용 사례 인 베이오 메트릭 인공 지능 또는 법 집행 (로스 엔텔리, 고용, 교육 및 중요 인프라 구조에서 사용되는 AI)는 허용되지만 이러한 앱의 개발자는 데이터 품질 및 안티 바이어스와 같은 영역에서 의무를 부담합니다.
AI 챗 봇과 같은 도구의 개발자를위한 일부 경량 투명도 요구 사항도 해당됩니다. 개별 목적 AI (GPAI) 모델의 메이커 (예 : OpenAI의 GPT)의 경우 일부 투명 도 요구 사항도 있습니다. 가장 강력한 공공 조사 AI (GPAI)는 일반적으로 연산 임계 값을 기준으로 설정되며 체계적인 위험 평가를 수행해야할 수도 있습니다.
인공 지능 산업의 일부 요소에 의해 지지됨과 동시에 소수 국가 정부에 의한 압력으로 이루어진 강력한 로비는 유럽이 미국과 중국의 경쟁 상대에게 맞서기 위해 자체 인공 지능 거대한을 생산하는 능력을 뒷받침할 수있다는 우려를 불러 일으키기 위해 GPAI에 대한 의무를 약화하려고 시도했습니다.
단계적 구현
먼저, AI의 사용을 금지하는 목록은 법률이 시행된 6개월 후에 적용됩니다.즉 2025 년 초에 적용됩니다.
AI에 대한 금지 (또는 "반 허용 가능 리스크") 사용 사례 중으로는 중국식 사회적 신용 점수 매기기, 비 대상적 Internet 또는 CCTV로 얼굴 인식 데이터베이스 컴파일링, 법 집행 기관이 퍼블릭 장소에서 실시간 원격 바이오메트릭 사용을 사용하는 것이 허용되지 않습니다. 감독되는 문자 이내의 예외 사항 중 하나 인 경우 등, 실종 된 또는 납치 된 사람을 찾는 동안입니다.
다음으로, 시행된 9 개월 후 - 즉 2025 년 4 월경- 범위 내의 AI 앱 개발자에게 적용되는 실천 강령이 적용됩니다.
AI Office는이 규칙을 제공하는 데 책임을지고 있습니다.그러나 실제로 가이드라인을 작성해야 할 사람은 아직도 질문을 던지고 있습니다.
이르스트 비액 테이브 보고서에 따르면,이 코드를 작성하기 위해 컨설팅 회사를 찾고 있었으며, 시민 사회에게 우려를 불러 일으킵니다. AI 산업 참가자가 자신들에게 적용될 규칙의 모양에 영향을줄 것입니다. 최근 MLex는 인공 지능 사무실이 프로세스를 포괄적으로 만드는 압력을 받은 MEP들로부터 일반 목적 AI 모델에 대한 실천 강령을 작성하기 위해 이해 당사자를 선정하기 위해 표현의 안목을 시작할 것이라고보고했습니다.
또 다른 주요 마감 시한이 시행된 12 개월 후- 즉 2025 년 8 월 1 일- 투명 요구 사항을 준수해야하는 GPAI에 대한 법률이 적용될 것입니다.
고위험 AI 시스템의 일부는 책임을 이행하기 위해 가장 관대한 준수 마감 시한이 주어지며 시행된 36개월 후에 (2027 년까지) 그들의 의무를 충족해야합니다. 다른 고위험 시스템은 24 개월 후 조속히 준수해야합니다.