Avrupa Birliği (AB); temel hakları, demokrasiyi, hukukun üstünlüğünü ve çevresel sürdürülebilirliği korumak için risk temelli bir yaklaşım benimseyen kapsamlı bir Yapay Zekâ Yasası (EU AI Act) üzerinde geçtiğimiz yılın sonunda anlaşmaya varmıştı. Bu yıl yasalaşması ve 2025 yılına kadar kurumların uyum sağlaması beklenen bu yasanın yapay zekâ alanında fiili yeni küresel standart olarak kabul görmesi de bekleniyor.
Son olarak KPMG de hazırladığı AB Yapay Zekâ Yasası'nın Şifresini Çözümü (Decoding the EU AI Act) isimli raporunda Yapay Zekâ Yasası'nın etkisini ve kurumların bu yasaya nasıl uyum sağlayabileceklerini irdeliyor.
Raporla ilgili değerlendirmede bulunan KPMG Türkiye İnovasyon ve Teknoloji Danışmanlığı Lideri Gökhan Mataracı, “Yapay Zekâ Yasası'nın yürürlüğe girmesiyle AB, yapay zekânın benimsenmesini teşvik etmek ve bireylerin yapay zekâyı sorumlu, etik ve güvenilir bir şekilde kullanımını sağlamak arasında bir denge kurmayı amaçlıyor. AB Yapay Zekâ Yasası, son kullanıcıları korurken inovasyonu teşvik etmeye yardımcı olacaktır. Raporumuz, Yapay Zekâ Yasası'nın yapısını, getirdiği yükümlülükleri, uyum için zaman çizelgelerini, kuruluşların dikkate alması gereken eylem planını ve stratejik yol haritasını ele alıyor. Bu yasanın iş dünyası üzerindeki yansımalarına bakacak olursak şirketler, geliştirdikleri ve kullandıkları yapay zekâ sistemlerinin bir haritasını oluşturmalı ve bunları yapay zekâ yasasında belirtilen risk seviyelerine göre kategorize etmelidir. Eğer bu sistemlerden herhangi biri sınırlı, yüksek veya kabul edilemez risk kategorisine giriyorsa yasanın etkileri uçtan uca değerlendirilerek hızlıca bir aksiyon planı çizilmelidir.” dedi.
KPMG'nin raporunda öne çıkan bazı başlıklar şu şekilde:
Yasaya göre yapay zekânın tanımı genişliyor: Yapay Zekâ Yasası, yakın zamanda güncellenmiş olan Ekonomik İşbirliği ve Kalkınma Örgütü (OECD) tanımından türetilmiş geniş kapsamlı bir yapay zekâ sistemi tanımını konu alıyor. Bu tanımın, tek kullanım amaçlarına odaklanan daha basit teknolojiler ve sistemlerden derin öğrenme ve üretken yapay zekâ alanındaki gelişmiş uygulamalara kadar geniş bir yelpazeyi kapsamak üzere bilinçli bir şekilde geniş tutulduğu gözlemleniyor. Sonuç olarak, yapay zekâ yasasının kapsamı, başlangıçta tahmin edilenden çok daha geniş bir hal aldı ve gelişmiş ve üretken yapay zekâ konusundaki daha yeni anlayışımızın da ötesine ulaştı. Diğer yandan, yapay zekâ yasasının belirlediği kapsam, askeri veya savunma amaçları için kullanılan yapay zekâ sistemleri için bazı muafiyetleri bulunduruyor ve ücretsiz ve açık kaynaklı sistemler için ise sınırlı muafiyetler içeriyor.
Yapay Zekâ Yasası, yapay zekânın etik kullanımını düzenlemeyi amaçlıyor: Yapay zekâ, dünyayı insanlığın yararına değiştirmek için büyük bir umut vaat ediyor. Ancak yapay zekânın risklerini, bilinen ve bilinmeyen potansiyel olumsuz sonuçlarını yönetmek de kritik önem taşıyor. Yapa Zekâ Yasası, 2024 yılında tamamlanacak ve yapay zekâ sistemlerinin güvenli olmasını sağlamayı, temel haklara saygı göstermeyi, bu teknolojiye yatırımı teşvik etmeyi, yönetimi iyileştirmeyi ve yapay zekâ için uyumlu bir tek AB pazarı oluşturmayı amaçlıyor.
Çoğu yapay zekâ sisteminin 2026 yılının ilk yarısına kadar yasaya uyması gerekiyor: Yapay Zekâ Yasası'nın yapay zekâ tanımının geniş olması nedeniyle çeşitli teknolojileri ve sistemleri kapsaması bekleniyor. Sonuç olarak, kurum ve şirketlerin Yapay Zekâ Yasası'ndan önemli ölçüde etkilenmesi öngörülüyor. Yükümlülüklerin çoğunun 2026 yılının başlarında yürürlüğe girmesi gerekiyor. Bununla birlikte, yasaklanmış yapa zekâ sistemleri, Yapay Zekâ Yasası yürürlüğe girdikten altı ay sonra aşamalı olarak kaldırılacak. Genel amaçlı yapay zekâ yönetme kurallarının 2025'in başlarında uygulanması bekleniyor.
Yüksek riskli yapay zekâ sistemlerinin sağlayıcıları ve kullanıcıları katı yükümlülüklerle karşı karşıya: Yapay Zekâ Yasası, yapay zekâ sistemlerini farklı risk seviyelerine ayırarak risk temelli bir yaklaşım uyguluyor. Bunlar; kabul edilemez, yüksek, sınırlı ve minimum riskler şeklinde sıralanıyor. Yüksek riskli yapay zekâ sistemlerine izin verilse de bunlar en katı yükümlülüklere tabi sistemler. Bu yükümlülükler sadece kullanıcıları değil, aynı zamanda yapay zekâ sistemlerinin “sağlayıcılarını” da etkiliyor. Yapay Zekâ Yasası'ndaki “sağlayıcı” terimi, tamamen kurum içi kullanım için yapay zekâ sistemleri geliştiren kuruluşlar da dâhil olmak üzere, yapay zekâ sistemleri geliştiren kurumları kapsıyor. Bu nedenle bir kuruluşun hem kullanıcı hem de sağlayıcı olabileceğini bilmek önem taşıyor. Sağlayıcıların muhtemelen risk yönetimi, veri kalitesi, şeffaflık, insan denetimi ve sağlamlık ile ilgili katı standartlara uyumu sağlamaları gerekecek. Kullanıcılar da yapay zekâ sistemlerini Yapa Zekâ Yasası'nın yasal sınırları dahilinde ve sağlayıcının özel talimatlarına göre çalıştırmaktan sorumlu olacak.
AB'nin önerdiği düzenlemenin, yapay zekânın gücünden faydalanan tüm kuruluşlar üzerinde geniş bir etkisi olacağı öngörülüyor ve uyumsuzluğun sonuçları, pazardan menetmeden ciddi para cezalarına kadar değişiklik gösteriyor. Cezalar, ihlalin ve şirketin büyüklüğüne bağlı olarak 35 milyon euro veya küresel cironun yüzde 7'sinden 7,5 milyon euro veya cironun yüzde 1,5'ine kadar değişiyor.
GPAI modelleri için hükümler eklendi: Büyük üretken yapay zekâ modelleri de dâhil olmak üzere genel amaçlı yapay zekâ (GPAI) modellerindeki son gelişmelere yönelik de yeni hükümler eklendi. Çeşitli görevler için kullanılabilen ve yüksek riskli sistemler de dâhil olmak üzere çok sayıda yapay zekâ sistemine entegre edilebilen bu modeller, giderek AB'deki birçok yapay zekâ sisteminin temeli haline geliyor.
Yapay Zekâ Yasası AB'nin mevcut hukukunu etkilemiyor: Kişisel veriler, ürün güvenliği, tüketicinin korunması, sosyal politika ve ulusal iş hukuku ve uygulamaları gibi AB'nin mevcut yasalarının yanı sıra ürün güvenliği ile ilgili sektörel yasama eylemleri de geçerli olmaya devam edecek. Yapay Zekâ Yasası'na uyum, kuruluşları bu alanlarda önceden var olan yasal yükümlülüklerinden kurtarmayacak.
Yasanın kuruluşunuz üzerindeki etkisini anlamanız başarı için çok önemli: Kuruluşlar, geliştirdikleri ve kullandıkları yapay zekâ sistemlerinin bir haritasını oluşturmak için zaman ayırmalı ve Yapay Zekâ Yasası'nda tanımlandığı gibi risk seviyelerini kategorize etmelidir. Yapay zekâ sistemlerinden herhangi biri sınırlı, yüksek veya kabul edilemez risk kategorisine girerse Yapay Zekâ Yasası'nın kuruluşları üzerindeki etkisini değerlendirmeleri gerekecektir. Kuruluşların bu etkiyi ve nasıl yanıt verileceğini mümkün olan en kısa sürede anlamaları büyük önem taşıyor.
World Media Group (WMG) Haber Servisi