EKONOMİ SERVİSİ – ‘AI Act’ olarak adlandırılan yasaya göre, AB ülkelerinde kullanılacak yapay zeka sistemlerinin güvenli olması, temel haklara ve birlik değerlerine saygılı göstermesi gerekecek. Yapay zeka sistemleri topluma zarar verme ihtimaline göre “risk temelli” iki aşamalı bir yaklaşım benimsenecek. Yüksek riskli yapay zeka sistemlerine daha katı kurallar getirilecek. Yapay zeka kanunu, yalnızca askeri veya savunma amaçlı kullanılan sistemler için geçerli olmayacak.
Sınırlı risk sunan yapay zeka sistemleri, kullanıcıların bilinçli kararlar alabilmesi için içeriğin yapay zeka tarafından oluşturulduğunu açık biçimde bildirecek. Bu sistemler, hafif şeffaflık yükümlülüklerine tabi tutulacak.
Kolluk kuvvetleri faaliyetlerinde yapay zekayı kullanabilecek. Ancak emniyet birimlerinin yapay zeka kullanımı terör saldırıları, mevcut veya öngörülebilir tehditlerin önlenmesi ve en ciddi suçlardan şüphelenilen kişilerin aranması gibi durumlarla sınırlı olacak.
AB Komisyonu bünyesinde, gelişmiş yapay zeka modellerini denetlemek, standartların ve test uygulamalarını geliştirmeye katkıda bulunmak ve bütün üye ülkelerde ortak kuralları uygulamakla görevli bir “Yapay Zeka Ofisi” kurulacak. Bu ofiste bağımsız uzmanlar tavsiyelerde bulunacak, ayrıc üye ülkelerin katılımıyla ‘Yapay Zeka Kurulu’ kurulacak ve tavsiye niteliğinde kararlar alacak.
Yapay zeka kanununun ihlaline ilişkin para cezaları, suçu işleyen şirketin bir önceki mali yıldaki küresel yıllık cirosunun yüzdesine veya önceden belirlenen miktarlara göre yüksek olan baz alınarak hesaplanacak. Yasaklı yapay zeka uygulamalarının ihlali durumunda şirket cirosunun yüzde 7’si veya 35 milyon euro para cezası kesilecek.