• Tarih: 19.02.2025
  • Yazar: Staj. Öğr. Zehra BUYRUK

AB Yapay Zeka Tüzüğü (Türkçe Özet Metin)

YAPAY ZEKA TÜZÜĞÜ

AB Yapay Zeka Tüzüğü, yapay zeka (AI) ile ilgili ilk kapsamlı düzenleme olarak dikkat çekmektedir. Tüzük, AI uygulamalarını risk düzeylerine göre sınıflandırarak farklı düzenlemeler getirmektedir. Risk temelli yaklaşımı hem insan haklarını korumayı hem de yenilikçiliği teşvik etmeyi amaçlamaktadır. Bu tüzük, sadece Avrupa Birliği için değil, tüm dünya için yapay zeka kullanımının geleceğini şekillendirecek gibi gözükmektedir.

Risk Kategorileri ve Düzenlemeler:

  • Kabul Edilemez Risk: Çin'deki sosyal puanlama gibi insan haklarına aykırı uygulamalar yasaklanmıştır.
  • Yüksek Risk: İş başvuru sahiplerini sıralayan CV tarama araçları gibi uygulamalar belirli yasal gerekliliklere tabi tutulmuştur.
  • Düşük Risk: Açıkça yasaklanmayan veya yüksek riskli olarak listelenmeyen uygulamalar büyük ölçüde bu tüzükte düzenlenmemektedir.

Bu Tüzük Neden Önemli?

Yapay zeka, hayatımızın birçok alanını etkilemektedir. AB Yapay Zeka Tüzüğü, tıpkı AB'nin Genel Veri Koruma Yönetmeliği (GDPR) gibi küresel bir standart haline gelerek yapay zekanın olumlu etkilerini artırmayı hedeflemektedir. Bu tüzük, diğer ülkeleri de etkileyerek yapay zeka düzenlemeleri konusunda ilham kaynağı olmaktadır. Örneğin, Brezilya Kongresi yakın zamanda yapay zeka için yasal bir çerçeve oluşturan bir tasarıyı kabul etmiştir.

Kuruluşlar Bu Tüzüğü Nasıl Uygulayabilir?

Özellikle KOBİ'ler ve yeni başlayanlar için AB Yapay Zeka Tüzüğü’ne uyum sağlamak oldukça önemli olmaktadır. Bu konuda yardımcı olmak amacıyla bir Yapay Zeka Tüzüğü Uyum Denetleyicisi geliştirilmektedir. Bu araç, kuruluşların hangi yükümlülüklerle karşı karşıya kalabileceğine dair bir fikir vererek uyum sürecini kolaylaştırabilir.

AB Yapay Zeka Tüzüğü 12 ana başlık ve 113 maddeden oluşur. Her başlık bir dizi Makale içerir.

Tüzüğe Genel Bir Bakış;

Bölüm I Genel Hükümler Madde 1-4:

AB Yapay Zeka Tüzüğü, yapay zekanın (AI) kullanımını düzenleyerek Avrupa pazarını iyileştirmeyi amaçlar. Tüzük, yapay zekanın nasıl satılabileceğine, kullanılabileceğine ve izlenebileceğine dair kurallar belirlerken belirli uygulamaları da yasaklar. Yüksek riskli yapay zeka sistemleri için özel kurallar getirir ve bazı sistemlerin şeffaf olmasını zorunlu kılar. Küçük işletmeler ve yeni başlayanlar için genel amaçlı yapay zeka modelleri ve yeniliği desteklemeye yönelik önlemleri de içerir.

Kapsam:

Tüzük, AB'de yapay zeka sistemleri geliştiren, kullanan, ithal eden veya dağıtan herkes için geçerlidir. Ancak askeri, savunma, ulusal güvenlik, yabancı kamu makamları tarafından kullanılan ve bilimsel araştırma için kullanılan yapay zeka sistemleri kapsam dışındadır.

Tanımlar:

Tüzük, yapay zeka sistemi, sağlayıcı, dağıtıcı gibi çeşitli terimleri tanımlar. Örneğin, yapay zeka sistemi, özerk olarak çalışabilen ve tahminler veya kararlar üretebilen makine tabanlı bir sistemdir.

Tüzük, yapay zeka sistemleri oluşturan ve kullanan şirketlerin, çalışanlarının ve bu sistemleri kullanan herkesin yapay zeka konusunda iyi eğitimli olmasını şart koşar.

Bölüm II Yasaklı Yapay Zeka Uygulamaları Madde 5:

AB Yapay Zeka Tüzüğü, yapay zekanın (AI) belirli kullanımlarını yasaklayarak insan haklarını ve temel özgürlükleri korumayı amaçlar. Yasaklanan kullanımlar şunlardır:

  • Manipülasyon: İnsanların kararlarını manipüle eden veya güvenlik açıklarından yararlanan yapay zeka sistemleri yasaktır. Bu tür sistemler, kişilerin iradelerini etkileyerek veya zayıflıklarından faydalanarak onlara zarar verebilir.
  • Sosyal Değerlendirme ve Sınıflandırma: İnsanları sosyal davranışlarına veya kişisel özelliklerine göre değerlendiren veya sınıflandıran sistemler yasaktır. Bu tür sistemler, ayrımcılığa yol açabilir ve kişilerin toplumdaki yerini haksız bir şekilde etkileyebilir.
  • Suç Riski Tahmini: Bir kişinin suç işleme riskini tahmin eden sistemler yasaktır. Bu tür sistemler, önyargılara dayalı olabilir ve kişilerin geleceğini olumsuz etkileyebilir.
  • Biyometrik Veri İşleme: İnternetten veya CCTV görüntülerinden yüz görüntülerini kazıyan, işyerinde veya eğitim kurumlarında duygular çıkaran ve insanları biyometrik verilerine göre kategorize eden yapay zeka sistemleri yasaktır. Bu tür sistemler, özel hayatın gizliliğini ihlal edebilir ve kişisel verilerin kötüye kullanılmasına yol açabilir.

İstisnalar:

Tüzük, kolluk kuvvetleri için bazı istisnalar öngörmektedir. Kayıp kişileri aramak veya terör saldırılarını önlemek gibi acil durumlarda, belirli koşullar altında bu tür sistemlerin kullanılmasına izin verilebilir. Ancak bu istisnalar, sıkı kurallara tabidir ve insan haklarına saygı ilkesi gözetilerek uygulanmalıdır.

Bölüm III Yüksek Riskli Yapay Zeka Sistemi Madde 6-49:

AB Yapay Zeka Tüzüğü, yapay zeka sistemlerini risk seviyelerine göre sınıflandırarak düzenler. Bu kapsamda "yüksek riskli" olarak kabul edilen yapay zeka sistemleri için özel kurallar getirir.

Yüksek Riskli Yapay Zeka Sistemlerinin Belirlenmesi:

Bir yapay zeka sistemi aşağıdaki durumlarda yüksek riskli olarak kabul edilir:

  • Bir ürünün güvenlik bileşeni olarak kullanılıyorsa,
  • Ek I'deki AB mevzuatı kapsamındaki bir ürünse,
  • Ek III'te listelenen türde bir yapay zeka sistemi ise yüksek risklidir. (Örneğin biyometrik tanımlama sistemleri)

Sağlayıcılar, yapay zeka sistemlerinin yüksek riskli olmadığını düşünseler bile, sistemlerini piyasaya sürmeden önce değerlendirmelerini belgelemelidirler. AB Komisyonu, yüksek riskli ve yüksek riskli olmayan yapay zeka sistemleri için rehberlik ve örnekler sunar. Ayrıca, yüksek riskli sınıflandırmanın koşullarını kanıtlara dayanarak ekleyebilir veya kaldırabilir. Ancak bu tür değişiklikler, sağlık, güvenlik ve temel haklar için koruma seviyesini düşürmemelidir.

AB Komisyonu, belirli koşulları karşılayan yüksek riskli yapay zeka sistemlerinin listesini değiştirebilir. Bu koşullar arasında, sistemin zaten yüksek riskli olarak listelenen alanlarda kullanılması ve mevcut yüksek riskli sistemlere eşit veya daha büyük bir sağlık, güvenlik veya temel hak riski oluşturması yer alır. Komisyon, yapay zekanın amacı, kullanım sıklığı, işlediği veriler, özerkliği, daha önce meydana gelen herhangi bir zarar, potansiyel zarar ve sonuçları düzeltme veya tersine çevirme yeteneği gibi faktörleri dikkate alır. Komisyon, artık önemli riskler oluşturmuyorsa ve listeden çıkarılması genel koruma seviyelerini düşürmüyorsa sistemleri listeden kaldırabilir.

Bir ürün bir yapay zeka sistemi içeriyorsa, sağlayıcılar ilgili tüm AB düzenlemelerini karşıladığından emin olmalıdır. Gereksiz tekrarları önlemek için, sağlayıcılar gerekli test, raporlama ve belgeleri mevcut AB mevzuatı prosedürlerine dahil etmelidir.

Yüksek Riskli Yapay Zeka Sistemleri için Risk Yönetimi:

AB Yapay Zeka Tüzüğü, yüksek riskli yapay zeka sistemleri için bir risk yönetim sistemi gerektirir. Bu sistem, yapay zekanın yaşam döngüsü boyunca düzenli olarak gözden geçirilen ve güncellenen sürekli bir süreç olmalıdır. Sistem, sağlık, güvenlik veya temel haklara yönelik potansiyel riskleri belirlemeli ve analiz etmeli, bu riskleri tahmin etmeli ve değerlendirmeli ve bunları yönetmek için önlemler almalıdır. Risk yönetimi, riskleri en aza indirmeyi ve yasal gereklilikleri karşılamayı dengelemelidir. Sistem, kalan risklerin kabul edilebilir olmasını ve riskleri ortadan kaldırmak veya azaltmak için önlemlerin alınmasını sağlamalıdır. En iyi risk yönetimi önlemlerini belirlemek ve amaçlandığı gibi çalıştıklarından emin olmak için yüksek riskli yapay zeka sistemleri test edilmelidir. Sistem, yapay zekanın 18 yaşın altındaki veya diğer savunmasız grupları olumsuz etkileyip etkileyemeyeceğini de göz önünde bulundurmalıdır.

Yüksek Riskli Yapay Zeka Sistemleri için Teknik Belgeler:

AB Tüzüğü, yüksek riskli bir yapay zeka sistemi piyasaya sürülmeden önce ayrıntılı teknik belgelerin hazırlanmasını ve güncel tutulmasını gerektirir. Bu belgeler, yapay zeka sisteminin tüzüğün gerekliliklerini karşıladığını kanıtlamalı ve yetkililerin uyumluluğu kontrol etmeleri için net bilgiler sağlamalıdır.

Yüksek Riskli Yapay Zeka Sistemleri için Olay Kayıtları:

Tüzük, yüksek riskli yapay zeka sistemlerinin kullanım ömrü boyunca olayları otomatik olarak kaydetme yeteneğine sahip olmasını gerektirir. Bu, özellikle yapay zekanın risk oluşturabileceği veya önemli değişikliklere uğrayabileceği durumlarda sistemin eylemlerinin geriye dönük olarak izlenebilmesini sağlamak içindir. Sistem ayrıca ne zaman kullanıldığı, verileri kontrol ettiği veri tabanı, eşleşen veriler ve sonuçları kimin doğruladığı gibi ayrıntıları kaydetmelidir. Bu, yüksek riskli yapay zeka sistemlerinin kullanımında hesap verebilirliğini ve güvenliği sağlamak içindir.

Yüksek Riskli Yapay Zeka Sistemleri için Şeffaflık:

Tüzük, yüksek riskli yapay zeka sistemlerinin şeffaf olacak şekilde tasarlanmasını, böylece kullanıcıların bunları doğru bir şekilde anlayıp kullanabilmelerini öngörür. Sağlayıcılar, sistemin yetenekleri, sınırlamaları ve olası riskleri hakkında bilgiler de dahil olmak üzere net talimatlar vermelidir. Talimatlar ayrıca sistemin çıktısının nasıl yorumlanacağını, sistemde önceden belirlenmiş değişiklikleri ve nasıl sürdürüleceğini de açıklamalıdır. Eğer sistemin içeriğiyle ilgiliyse veri günlüklerinin nasıl toplanacağını, saklanacağını ve yorumlanacağını da açıklamalıdır.

Yüksek Riskli Yapay Zeka Sistemleri için İnsan Gözetimi:

Tüzük, yüksek riskli yapay zeka sistemlerinin insanların bunları etkili bir şekilde denetlemesine olanak sağlayacak şekilde tasarlanmasını öngörür. İnsan gözetiminin amacı, bu sistemlerin kullanımından kaynaklanabilecek sağlık, güvenlik veya temel haklara yönelik riskleri önlemek veya en aza indirmektir. Gözetim önlemleri, yapay zeka sisteminin kullanımının riskleri ve bağlamıyla uyumlu olmalıdır. Bu önlemler sağlayıcı tarafından sisteme dahil edilebilir veya kullanıcı tarafından uygulanabilir. Yapay zeka sistemi, gözetmenin yeteneklerini ve sınırlamalarını anlamasına, sorunları tespit etmesine ve ele almasına, sisteme aşırı güvenmekten kaçınmasına, çıktısını yorumlamasına, kullanmamaya karar vermesine veya çalışmasını durdurmasına olanak tanıyan bir şekilde tasarlanmalıdır. Bazı yüksek riskli yapay zeka sistemleri için sistemin tanımlanmasına dayanan herhangi bir eylem veya karar en az iki yetkili kişi tarafından doğrulanmalıdır.

Yüksek Riskli Yapay Zeka Sistemleri için Güvenlik ve Dayanıklılık:

Yüksek riskli yapay zeka sistemleri hatalara ve arızalara karşı dayanıklı olmalı ve yedek planlara sahip olmalıdır. Ayrıca önyargılı çıktı riskini azaltmak için tasarlanmalıdırlar. Ayrıca bu sistemler güvenlik açıklarından yararlanmaya çalışan yetkisiz üçüncü taraflara karşı güvenli olmalıdır.

Yüksek Riskli Yapay Zeka Sistemlerinin Sağlayıcılarının ve Dağıtımcılarının ve Diğer Tarafların Yükümlülükleri:

AB Yapay Zeka Tüzüğü, yüksek riskli yapay zeka sistemleri sağlayan şirketlere bir dizi yükümlülük getirmektedir. Bu yükümlülükler, sistemlerin güvenliğini ve şeffaflığını sağlamayı amaçlar.

Sağlayıcıların Yükümlülükleri:

Standartlara Uygunluk: Yapay zeka sistemleri, belirlenen standartları karşılamalıdır.

İletişim Bilgileri: Şirketler, iletişim bilgilerini ürün üzerinde veya ambalajında göstermelidir.

Kalite Yönetim Sistemi: Sağlayıcılar, belgelenmiş bir kalite yönetim sistemine sahip olmalıdır. Bu sistem, mevzuata uygunluk, tasarım, geliştirme, test, doğrulama, teknik özellikler, veri yönetimi, risk yönetimi, pazarlama sonrası izleme, olay raporlama, iletişim, kayıt tutma, kaynak yönetimi ve hesap verebilirlik çerçevesi için stratejiler içermelidir.

Belge ve Kayıt Tutma: Sağlayıcılar, belirli belgeleri (teknik belgeler, kalite yönetim sistemi belgeleri, onaylanmış değişiklikler, onaylanmış kuruluşlardan gelen kararlar ve AB uygunluk beyanı) sistem piyasaya sürüldükten sonra 10 yıl boyunca saklamalıdır. Ayrıca sistemlerin otomatik olarak oluşturduğu günlükleri de tutmalıdırlar. Bu günlükler, en az altı ay (AB veya ulusal yasaların gerektirdiği durumlarda daha uzun) süreyle saklanmalıdır.

Uygunluk Değerlendirmesi: Yapay zeka sistemini satmadan veya kullanmadan önce sağlayıcılar düzenlemelere uygunluğunu kontrol ettirmelidir.

CE İşareti: Ürün, AB standartlarını karşıladığını göstermek için bir CE işareti ile işaretlenmelidir.

Kayıt: Ürün, ilgili mercilere kaydettirilmelidir.

Sorun Çözme ve Bilgi Sağlama: Sağlayıcılar, herhangi bir sorunu çözmeli, gerekli bilgileri sağlamalı ve yetkililer tarafından istenirse standartları karşıladığını kanıtlamalıdır.

Erişilebilirlik: Yapay zeka sistemi, AB direktiflerine göre de erişilebilir olmalıdır.

Uygunsuzluk Durumunda Yapılacaklar: Bir şirket, sistemlerinin AB tarafından belirlenen kurallara uymadığını fark ederse sorunu derhal çözmeli, kullanmayı bırakmalı veya geri çağırmalıdır. Ayrıca, sistemi dağıtan veya kullanan herkesi bilgilendirmelidir. Sistem bir risk oluşturuyorsa şirket nedenini araştırmalı ve yetkilileri bilgilendirmelidir.

Yetkililerle İş Birliği: Sağlayıcılar, ilgili bir makam tarafından sorulduğunda, yapay zeka sistemlerinin gerekli standartları karşıladığını göstermek için gereken tüm bilgileri sağlamalıdır.

AB Üyesi Olmayan Ülkelerden Sağlayıcılar:

AB'de yüksek riskli yapay zeka sistemlerini başlatmadan önce, AB üyesi olmayan ülkelerden gelen sağlayıcılar AB içinde bir temsilci atamalıdır. Bu temsilci, sistemin AB düzenlemelerine uygun olmasını sağlamaktan, kayıtları tutmaktan, yetkililere bilgi sağlamaktan, riskleri yönetmede iş birliği yapmaktan ve kayıt yükümlülüklerini yerine getirmekten sorumludur.

İthalatçılar ve Distribütörlerin Yükümlülükleri:

  • İthalatçılar: Yüksek riskli bir yapay zeka sistemi satmadan önce, ithalatçılar tüm düzenlemeleri karşıladığından emin olmalıdır. Bu, sistemin gerekli değerlendirmeleri geçtiğini, doğru belgelere sahip olduğunu ve CE işareti ile işaretlendiğini kontrol etmeyi içerir.
  • Distribütörler: Yüksek riskli bir yapay zeka sistemi satmadan önce, distribütörler belirli standartları karşıladığından emin olmalıdır. Ayrıca, depolama veya taşıma sırasında yapay zeka sisteminin uyumlu kalmasını sağlamaları gerekir.

Diğer Hususlar:

  • Yüksek riskli bir yapay zeka sistemini dağıtan, ithal eden veya değiştiren herkes, bu sistemin sağlayıcısı olarak kabul edilir ve belirli düzenlemelere uyması gerekir.
  • Yüksek riskli yapay zeka sistemlerini kullananların da belirli sorumlulukları vardır. Bunlar, sistemleri talimatlara göre kullanmayı, insan gözetimini atamayı, giriş verilerinin alakalı olmasını sağlamayı ve sistemin çalışmasını izlemeyi içerir.

Bildirim Makamları ve Bildirilmiş Kuruluşlar:

AB Yapay Zeka Tüzüğü, yapay zeka sistemlerinin değerlendirilmesi ve onaylanması sürecini düzenleyen çeşitli hükümler içermektedir. Bu hükümler, üye devletlerin yetkililerini, değerlendirme kuruluşlarını ve onaylanmış kuruluşları kapsamaktadır.

Üye Devletlerin Yetkileri:

Her üye ülke, yapay zeka uygunluk değerlendirme kuruluşlarını değerlendirmekten ve izlemekten sorumlu en az bir otoriteye sahip olmalıdır. Bu yetkililer tarafsız ve çıkar çatışmalarından uzak olmalıdır. Kararlar değerlendirmeleri yapanlardan farklı kişiler tarafından alınmalıdır. Bu yetkililer değerlendirme kuruluşlarıyla aynı hizmetleri sunamaz veya danışmanlık hizmetleri sağlayamaz. Bilgileri gizli tutmalı ve BT, yapay zeka ve hukuk gibi alanlarda yeterli yetenekli personele sahip olmalıdırlar.

Değerlendirme Kuruluşları:

Yapay zeka sistemlerini AB standartlarına uygunluk açısından değerlendiren kuruluşlar, bulundukları ülkedeki ilgili otoriteye başvurmalıdır. Değerlendirme faaliyetleri, değerlendirebilecekleri yapay zeka sistemleri türleri ve ilgili akreditasyonlar hakkında ayrıntılar sağlamalıdırlar. Akreditasyonları yoksa, gerekli gereksinimleri karşıladıklarını göstermek için başka kanıtlar sunmaları gerekir. Diğer AB tasarıları kapsamında zaten tanınıyorlarsa, başvurularını desteklemek için bu kimlik bilgilerini kullanabilirler. Ayrıca, devam eden uyumluluğu göstermek için belgelerini güncel tutmaları gerekir.

Bildirim Süreci:

Yetkililer yalnızca belirli gereksinimleri karşılayan değerlendirme kuruluşlarını bilgilendirebilir. Komisyonu ve diğer üye devletleri her bir değerlendirme kuruluşu hakkında bilgilendirmek için belirli bir elektronik araç kullanmalıdırlar. Bildirim yapay zeka sistemi hakkında ayrıntılı bilgi ve değerlendirme organının yeterliliğinin kanıtını içermelidir.

Belirli bir zaman dilimi içinde herhangi bir itirazda bulunulmazsa, değerlendirme organı faaliyetlerine başlayabilir. İtirazlar varsa Komisyon ilgili taraflara danışacak ve yetkilendirmenin haklı olup olmadığına karar verecektir.

Onaylanmış Kuruluşlar:

Yüksek riskli yapay zeka sistemlerini değerlendiren onaylanmış kuruluşlar bir üye devletin ulusal yasaları uyarınca kurulmalı ve tüzel kişiliğe sahip olmalıdır. Belirli organizasyonel, kalite yönetimi, kaynak ve siber güvenlik gereksinimlerini karşılamaları gerekir. Yapay zeka sistemi sağlayıcısından ve yapay zeka sisteminde ekonomik çıkarı olan diğer herhangi bir operatörden bağımsız olmalıdırlar. Ayrıca gizliliği korumalı ve sağlayıcının ve yapay zeka sisteminin boyutunu ve karmaşıklığını dikkate almalıdırlar. Sorumluluk sigortasına sahip olmalı ve görevlerini profesyonel dürüstlük ve yetkinlikle yerine getirebilmelidirler.

Standartlara Uygunluk:

Yapay zeka sistemlerini değerlendiren bir organ, ilgili AB standartlarında belirtilen kriterleri karşıladığını gösterebilirse 31. Maddenin (Onaylanmış Kuruluşlarla İlgili Gereksinimler) gerekliliklerini de karşıladığı varsayılacaktır. Bu standartlar Madde 31 ile aynı gereklilikleri kapsadığı sürece geçerlidir. Bu standartlara yapılan referanslar Avrupa Birliği Resmî Gazetesi'nde yayınlanmaktadır.

Dış Kaynak Kullanımı ve Yan Kuruluşlar:

Onaylanmış bir kuruluş, görevleri dış kaynak olarak kullanması veya bir yan kuruluş kullanması durumunda, bu tarafların gerekli standartları karşılamasını ve ilgili makamı bilgilendirmesi gerekir. Onaylanmış kuruluş bu taraflarca yapılan işten tamamen sorumludur. Bu tür dış kaynak kullanımı veya iştiraklerin kullanımı yalnızca sağlayıcının sözleşmesiyle gerçekleşebilir. Onaylanmış kuruluş ayrıca yan kuruluşlarının bir listesini kamuya açıklamalıdır. Bu tarafların nitelikleri ve çalışmaları ile ilgili tüm belgeler taşeronluk sona erdikten sonra beş yıl boyunca saklanmalıdır.

Değerlendirme Süreci:

Onaylanmış kuruluşlar, yüksek riskli yapay zeka sistemlerinin Madde 43'te (Uygunluk Değerlendirmesi) belirtilen standartları karşıladığını kontrol etmelidir. Sağlayıcılar için gereksiz çalışmaya neden olmaktan kaçınmalı ve sağlayıcının büyüklüğü, sektörü, yapısı ve yapay zeka sisteminin karmaşıklığı gibi faktörleri göz önünde bulundurmalıdırlar. Özellikle küçük işletmeler için idari iş ve uyum maliyetlerini azaltmaya çalışmalıdırlar. Bununla birlikte yapay zeka sisteminin gerekli güvenlik standartlarını karşıladığından emin olmalıdırlar. Bu organlar, değerlendirmelere ve izlemeye yardımcı olmak için istendiğinde ilgili tüm belgeleri bildirim makamına (bunları denetleyen kurum) sunmalıdırlar.

Kimlik Numarası ve Liste:

Avrupa Komisyonu, (kuruluş birden fazla AB tasarısı kapsamında tanınsa bile) onaylanmış kuruluşa benzersiz bir kimlik numarası verecektir. Komisyon ayrıca bu kuruluşların kimlik numaraları ve ne yaptıklarını da içeren bir liste yayınlayacaktır. Bu liste güncel tutulacaktır.

Bildirimlerdeki Değişiklikler ve Yükümlülüklerin Yerine Getirilmemesi:

Yapay zeka sistemlerini değerlendiren bir kurum faaliyetlerini durdurmaya karar verirse, ilgili makamları ve sağlayıcıları bilgilendirmelidir. Başka bir kurum sorumluluklarını üstlenirse sertifikaları dokuz ay boyunca geçerli kalabilir. Bir kuruluş gereklilikleri veya yükümlülükleri yerine getirmezse bildirim makamı atamasını kısıtlayabilir, askıya alabilir veya geri çekebilir. Bir kuruluşun ataması askıya alınır veya geri çekilirse sağlayıcıları bilgilendirmelidir. Yetkili makam kuruluşun dosyalarının tutulmasını sağlamalı ve verilen sertifikalar üzerindeki etkiyi değerlendirmelidir.

Soruşturmalar ve İş Birliği:

AB Komisyonu, onaylanmış kuruluşların yetenekleri veya nitelikleri hakkındaki herhangi bir şüpheye yer vermeyecek şekilde bu kuruluşları araştıracaktır. Komisyon, onaylanmış bir kuruluşun gerekli gereksinimleri karşılamadığını tespit ederse ilgili AB ülkesinden kurumun bildirimini askıya almayı veya geri çekmeyi içerebilecek sorunu çözmesini isteyecektir. Ülke harekete geçmezse Komisyon organın atanmasını askıya alabilir, kısıtlayabilir veya geri çekebilir. Bu soruşturmalar sırasında toplanan tüm hassas bilgiler gizli tutulacaktır. Komisyon, yüksek riskli yapay zeka sistemlerinin güvenliğini kontrol etmekten sorumlu kuruluşların birlikte etkili bir şekilde çalışmasını sağlayacaktır. Bu, bu organizasyonlardan oluşan özel bir grup aracılığıyla yapılacaktır.

Bu kuruluşları bilgilendiren her otorite, doğrudan veya temsilciler aracılığıyla bu gruba katılmalarını sağlamalıdır. Komisyon ayrıca bu yetkililer arasında bilgi ve en iyi uygulamaların paylaşılmasını kolaylaştıracaktır.

AB Dışı Kuruluşlar:

Tüzük, AB dışındaki ülkelerden AB ile anlaşması olan kuruluşlardan bu düzenleme kapsamında olanların görevlerini yerine getirmelerine izin verilebileceğini söylüyor. Bununla birlikte, ya 31. Maddede (Onaylanmış Kuruluşlarla İlgili Gereksinimler) belirtilen gereklilikleri karşılamalı ya da eşdeğer kurallara uymalarını sağlamalıdırlar. Daha basit bir ifadeyle anlatılacak olursa, bu kuruluşlar işi yapabilir ancak AB kuruluşlarıyla aynı veya benzer kurallara uymaları gerekir. Bu düzenlemeler, yapay zeka sistemlerinin güvenli ve etik bir şekilde kullanılmasını sağlamayı amaçlamaktadır. Tüzük, Üye devletleri, değerlendirme kuruluşlarını ve onaylanmış kuruluşları bu amaç doğrultusunda iş birliği yapmaya teşvik etmektedir.

Standartlar, Uygunluk Değerlendirmesi, Sertifikalar, Kayıt:

AB Yapay Zeka Tüzüğü, yüksek riskli yapay zeka sistemlerinin ve genel amaçlı yapay zeka modellerinin belirli standartlara uygun olarak değerlendirilmesini öngörmektedir. Bu süreç, Avrupa pazarında rekabet gücünü ve büyümeyi artırmayı, yapay zekaya yatırım ve yeniliği teşvik etmeyi ve yasal kesinliği sağlamayı amaçlar.

Standardizasyon Talepleri:

Komisyon, bu düzenlemenin tüm gerekliliklerini ve yükümlülüklerini karşılamak için standardizasyon talepleri yayınlayacaktır. Bu talepler, yapay zeka sistemlerinin kaynak performansında enerji tüketimini azaltmak gibi iyileştirmeler de isteyebilir. Komisyon, bu talepleri hazırlarken Yönetim Kuruluna ve ilgili paydaşlara danışacaktır.

Ortak Kurallar:

AB Komisyonu, Avrupa standardizasyon kuruluşlarının bir standart oluşturma talebini kabul etmemesi veya oluşturulan standartların temel hakları ele almaması gibi durumlarda yapay zeka sistemleri için ortak kurallar oluşturabilir. Yapay zeka sistemleri bu ortak kuralları karşılıyorsa tüzüğün gerekliliklerini karşıladıkları varsayılır. Eğer yapmazlarsa gereksinimleri başka bir şekilde karşıladıklarını kanıtlamaları gerekir. Bir üye devlet ortak kuralların gereklilikleri karşılamadığını düşünüyorsa Komisyon'dan bunları değiştirmesini isteyebilir.

Varsayılan Uygunluk:

Amaçlanan kullanımlarına özgü veriler üzerinde eğitilmiş ve test edilmiş yüksek riskli yapay zeka sistemlerinin belirli gereksinimleri karşıladığı varsayılır. Ayrıca, bu yapay zeka sistemleri sertifikalıysa veya bir siber güvenlik planı kapsamında uygunluk beyanına sahipse sertifika veya beyan bu gereksinimleri kapsadığı sürece siber güvenlik gereksinimlerini karşıladıkları varsayılır.

Değerlendirme Süreci:

Yüksek riskli yapay zeka sistemlerinin belirli standartları karşılayıp karşılamadığını değerlendirme süreci şu şekildedir:

  • Bir sağlayıcı yapay zeka sistemini oluştururken belirli standartları kullandıysa, iki değerlendirme prosedüründen birini seçmelidir.
  • Sağlayıcı bu standartları kullanmamışsa veya yalnızca bir kısmını kullanmışsa belirli bir değerlendirme prosedürünü izlemelidir.
  • Yapay zeka sistemi kolluk kuvvetleri veya göçmenlik makamları içinse, bir piyasa gözetim otoritesi değerlendirme organı olarak hareket edecektir.
  • Bir yapay zeka sistemi önemli ölçüde değiştirilirse yeni bir değerlendirmeden geçmesi gerekir.

Komisyon, teknoloji ilerledikçe bu prosedürleri güncelleyebilir.

Sertifikalar:

AI sistemleri için sertifikalar, sertifikanın verildiği ülkedeki ilgili makamlar tarafından kolayca anlaşılabilecek bir dilde yazılmalıdır. Bu sertifikalar belirli yapay zeka sistemleri için beş yıla kadar, diğerleri için ise dört yıl geçerlidir. Yeniden bir değerlendirmeden sonra talep üzerine uzatılabilirler. Bir yapay zeka sistemi artık gerekli gereksinimleri karşılamıyorsa sağlayıcı, düzeltici eylemde bulunmadıkça sertifika askıya alınabilir veya geri çekilebilir. Bu sertifikalarla ilgili alınan kararlar için bir temyiz süreci de olmalıdır.

Bildirimler ve İş birliği:

Onaylanmış kuruluşlar, değerlendirmeleriyle ilgili sertifikalar, onaylar veya değişiklikler hakkında bildirim makamını bilgilendirmelidir. Ayrıca piyasa gözetim makamlarından aldıkları talepler hakkında da bilgi paylaşmaları gerekir. Diğer onaylanmış kuruluşları verdikleri, reddettikleri, askıya aldıkları veya geri çektikleri onaylar veya sertifikalar hakkında bilgilendirmeleri gerekir. Olumsuz ve olumlu değerlendirme sonuçları hakkındaki bilgileri benzer organlarla paylaşmalıdırlar. Ancak, tüm bu bilgileri gizli tutmaları gerekir.

İstisnalar:

Yüksek riskli yapay zeka sistemleri için olağan onay sürecinde istisnalara izin verilir. Kamu güvenliği veya çevre koruma gibi haklı bir neden varsa bir piyasa gözetim otoritesi bu sistemlerin değerlendirilirken sınırlı bir süre için kullanılmasına izin verebilir. Acil durumlarda kolluk kuvvetleri veya sivil koruma makamları, kısa bir süre sonra onay talep ettikleri sürece bu sistemleri önceden onay almadan kullanabilirler. Onay reddedilirse, sistem durdurulmalı ve sonuçları atılmalıdır. AB Komisyonu ve diğer üye devletler herhangi bir onay hakkında bilgilendirilmelidir ve 15 gün içinde herhangi bir itirazda bulunulmazsa onay haklı kabul edilir. İtirazlar ortaya çıkarsa Komisyon ilgili taraflara danışacak ve onayın haklı olup olmadığına karar verecektir.

Uygunluk Beyanı:

AB Yapay Zeka Tüzüğü, yüksek riskli yapay zeka sistemleri sağlayıcılarının her sistem için yazılı bir uygunluk beyanı oluşturmasını gerektirir. Fiziksel veya elektronik olabilen bu belge, sistem başlatıldıktan sonra 10 yıl boyunca ulusal makamlar için hazır tutulmalıdır. Beyanname, yapay zeka sistemini tanımlamalı ve belirli gereksinimleri karşıladığını onaylamalıdır ayrıca da yetkililerin anlayabileceği bir dile çevrilmelidir. Yapay zeka sistemi diğer AB tasarılarına tabi ise yürürlükteki tüm tasarıları kapsayan tek bir beyan gereklidir. Sağlayıcı, beyanın güncel tutulmasını sağlamaktan sorumludur. Komisyon, deklarasyonun içeriğini gerektiği gibi güncelleyebilir.

CE İşareti:

Bir ürünün AB güvenlik standartlarını karşıladığını gösteren CE işaretinin yüksek riskli AI sistemlerinde açıkça görülebilmesi gerekir. Fiziksel olarak sisteme yerleştirilemiyorsa ambalajın veya belgelerin üzerinde olmalıdır. Dijital yapay zeka sistemleri için dijital bir CE işaretine kolayca erişilebilir olmalıdır. Onaylanmış bir kuruluşsa (ürünün standartları karşıladığını kontrol eden bir kuruluş) kimlik numarası CE işaretinin yanına eklenmelidir. AI sistemi, CE işareti gerektiren diğer AB yasalarına da tabiyse işaret bu gereksinimleri de karşıladığını gösterir.

Kayıt:

Herhangi bir yüksek riskli yapay zeka sistemi başlatılmadan veya kullanılmadan önce, sağlayıcının veya temsilcisinin kendilerini ve sistemlerini AB veri tabanına kaydetmesi gerekir. Bu, sağlayıcının yüksek riskli olmadığını belirlediği yapay zeka sistemleri için de geçerlidir. Kamu otoriteleri veya yüksek riskli yapay zeka sistemleri kullanan kurumlar da kendilerini ve sistemin kullanımını AB veri tabanına kaydetmelidir. Kolluk kuvvetleri, göç ve sınır kontrolünde kullanılan bazı yüksek riskli yapay zeka sistemleri AB veri tabanının güvenli, halka açık olmayan bir bölümüne kaydedilmelidir. Bu bölüme yalnızca Komisyon ve ulusal makamlar erişebilir. Üye devletleri, değerlendirme kuruluşlarını ve onaylanmış kuruluşları bu amaç doğrultusunda iş birliği yapmaya teşvik etmektedir.

Bölüm IV Belirli Yapay Zeka Sistemlerinin Sağlayıcıları ve Dağıtımcıları için Şeffaflık Yükümlülükleri Madde 50:

AB Yapay Zeka Tüzüğü, yapay zeka sistemlerinin kullanımına ilişkin şeffaflık ve bilgilendirme yükümlülükleri getirmektedir. Bu kapsamda şirketlerin uyması gereken bazı kurallar şunlardır:

Kullanıcı Bilgilendirmesi: Şirketler, bir yapay zeka sistemiyle etkileşimde bulunduklarında kullanıcıları bilgilendirmelidir. Ancak bu bilgilendirme yükümlülüğü, yapay zeka suç tespiti gibi yasal amaçlar için kullanıldığında geçerli değildir.

Sentetik İçerik: Sentetik içerik oluşturan yapay zeka sistemleri (deepfakes gibi) çıktılarını "yapay olarak üretilmiş" olarak işaretlemelidir. Bu sayede kullanıcılar, içeriğin gerçek olmadığını ve yapay zeka tarafından oluşturulduğunu anlayabilirler.

Duygu Tanıma ve Biyometrik Kategorizasyon: Şirketler, yapay zekayı duygu tanıma veya biyometrik kategorizasyon için kullandıklarında da kullanıcıları bilgilendirmelidir. Ancak bu bilgilendirme yükümlülüğü, yasal amaçlar için kullanıldığında geçerli değildir.

İçerik Oluşturma ve Değiştirme: Bir yapay zeka sistemi içerik oluşturursa veya değiştirirse, şirket bunu açıklamalıdır. Ancak bu açıklama yükümlülüğü, yasal amaçlar için kullanıldığında veya içerik sanatsal veya hicivli olduğunda geçerli değildir.

Yapay Zeka Ofisi'nin Rolü:Yapay Zeka Ofisi, yapay olarak üretilen içeriği tespit etmek ve etiketlemek için yönergeler oluşturmaya yardımcı olacaktır. Bu sayede yapay zeka tarafından oluşturulan içeriklerin daha kolay tespit edilmesi ve etiketlenmesi sağlanacaktır.

Bölüm V Genel Amaçlı Yapay Zeka Modelleri Madde 51-56:

Sınıflandırma Kuralları:Bir yapay zeka modeli, teknik araçlar ve kriterlerle belirlenen yüksek etki yeteneklerine sahipse veya Komisyon tarafından kararlaştırılan benzer yeteneklere veya etkiye sahipse sistemik risk taşıdığı kabul edilir. Yapay zeka modeli, eğitimi için büyük miktarda hesaplama kullanıyorsa yüksek etki yeteneklerine sahip olduğu varsayılır. Komisyon, teknolojik gelişmelere ayak uydurmak için bu kuralları değiştirebilir.

Genel bir yapay zeka modeli belirli koşulları karşılıyorsa sağlayıcının Komisyonu iki hafta içinde bilgilendirmesi gerekir. Komisyon daha sonra yapay zeka modelinin sistemik riskler oluşturup oluşturmadığına karar verebilir. Sağlayıcı, yapay zeka modelinin bu tür riskler oluşturmadığını iddia ederse ikna edici değilse Komisyon argümanları reddedebilir. Komisyon ayrıca belirli kriterlere dayanarak bir yapay zeka modelini riskli olarak belirleyebilir. Bir sağlayıcı bu atamaya katılmıyorsa, altı ay sonra yeniden değerlendirme talebinde bulunabilir. Komisyon, fikri mülkiyet haklarına ve iş gizliliğine saygı duyarken riskli yapay zeka modellerinin bir listesini tutacaktır.

Genel Amaçlı Yapay Zeka Modelleri Sağlayıcıları için Yükümlülükler:Genel amaçlı yapay zeka modelleri oluşturan şirketler, yapay zekalarının geliştirilmesi ve testlerinin ayrıntılı kayıtlarını tutmalıdır. Bu bilgileri, fikri mülkiyetlerini korurken yapay zekalarını kullanmak isteyen diğer şirketlere de sağlamaları gerekir. Bununla birlikte sistemik riskler oluşmadıkça bu şartlar açık kaynaklı ve halka ücretsiz olarak sunulan yapay zeka modelleri için geçerli değildir. Bu şirketler ayrıca AB Komisyonu ve ulusal makamlarla da iş birliği yapmalıdır. Bir standart yayınlanana kadar kurallara uyduklarını göstermek için onaylanmış uygulama kodlarını kullanabilirler. Komisyon, teknoloji geliştikçe bu kuralları da güncelleyebilir. AB’de genel amaçlı bir yapay zeka modeli satmadan önce, AB dışındaki şirketler AB içinde bir temsilci atamalıdır. Bu temsilci, yapay zeka modelinin tüm AB düzenlemelerini karşılamasını sağlamaktan, teknik belgelerin bir kopyasını 10 yıl boyunca saklamaktan, AI Ofisine gerekli bilgileri sağlamaktan ve AI Ofisi ve diğer yetkililerle iş birliği yapmaktan sorumludur. Şirket kurallara uymazsa temsilci anlaşmasını sonlandırmalı ve Yapay Zeka Ofisini bilgilendirmelidir. Bu kural, sistemik riskler oluşturmadıkça ücretsiz, açık kaynaklı ve herkese açık olan yapay zeka modelleri için geçerli değildir.

Sistemik Riskli Genel Amaçlı Yapay Zeka Modelleri Sağlayıcılarının Yükümlülükleri:Sistemik riske sahip genel amaçlı yapay zeka modellerinin sağlayıcılarının belirli kurallara uyması gerekir. Standart protokolleri kullanarak modellerini değerlendirmeli, sistemik riskleri belirlemeli ve azaltmalı ve ciddi olayları Yapay Zeka Ofisi'ne ve ulusal yetkililere bildirmelidirler. Ayrıca yapay zeka modellerinin ve altyapılarının güvenli olmasını sağlamalıdırlar. Sağlayıcılar, bir standart yayınlanana kadar bu kurallara uyduklarını göstermek için uygulama kurallarını kullanabilirler. Onaylanmış bir koda veya standarda uymuyorlarsa başka bir şekilde uyduklarını göstermeleri gerekir. Elde edilen tüm bilgiler gizli tutulmalıdır.

Uygulama Kuralları:AB'nin Yapay Zeka Ofisi, Birlik genelinde yapay zekanın (AI) kullanımı için yönergeler oluşturmakla görevlidir. Bu yönergeler, yapay zeka bilgilerinin nasıl güncel tutulacağını, yapay zekayı eğitmek için kullanılan verilerin nasıl tanımlanacağını ve potansiyel risklerin nasıl belirleneceğini ve yönetileceğini kapsayacaktır. Yapay Zeka Ofisi, yapay zeka sağlayıcılarını, yetkilileri ve diğer paydaşları bu yönergelerin oluşturulmasına yardımcı olmaya davet edecektir.

Yönergeler, başarıyı ölçmenin net hedefleri ve yollarına sahip olacaktır. Yapay Zeka Ofisi, bu yönergelerin ne kadar iyi takip edildiğini izleyecek ve bunları AB genelinde kullanım için onaylayabilir. Kılavuzlar bir yıl içinde hazır veya yeterli değilse, Komisyon ortak kurallar oluşturabilir. Bu düzenlemeler, yapay zeka modellerinin güvenli ve etik bir şekilde kullanılmasını sağlamayı amaçlamaktadır.

Bölüm VI İnovasyonu Destekleyen Önlemler Madde 57-63:

AB Yapay Zeka Yasası, yapay zeka sistemlerinin geliştirilmesi ve test edilmesi için çeşitli mekanizmalar öngörmektedir. Bu mekanizmaların en önemlilerinden biri de "AI düzenleyici sanal alanları"dır.

AI Düzenleyici Sanal Alanları:AB, üye devletlerin ulusal düzeyde en az bir "AI düzenleyici sanal alan" oluşturmasını şart koşmaktadır. Bu sanal alanlar, yapay zeka sistemlerinin piyasaya sürülmeden önce geliştirilebileceği, test edilebileceği ve doğrulanabileceği kontrollü ortamlardır. Amaç, özellikle temel haklar, sağlık ve güvenlikle ilgili riskleri belirlerken ve azaltırken yeniliği teşvik etmektir. Korumalı alanlar ayrıca düzenleyici beklentiler ve gereklilikler hakkında rehberlik sağlayacaktır. Bir yapay zeka sistemi bir sanal alanda başarıyla test edilirse, sağlayıcı bunu düzenlemelere uygunluğun kanıtı olarak kullanabilir. Korumalı alanlar ayrıca sınır ötesi iş birliğini kolaylaştırmayı ve en iyi uygulamaları paylaşmayı amaçlamaktadır.

Sanal Alanlara Katılım:AB, yapay zeka sistemlerini test etmek ve geliştirmek için yapay zeka düzenleyici sanal alanlar kurmaktadır. Bu sanal alanlar, uygunluk kriterlerini karşılayan herhangi bir sağlayıcıya açık olacaktır. Sandbox'a (Sandbox çalışan programları ayırmak için kullanılan bir güvenlik mekanizmasıdır.) başvurma, katılma ve çıkma süreci basit ve net bir şekilde iletilecektir. Küçük işletmeler ve yeni başlayanlar için sanal alanlara erişim ücretsiz olacaktır. Korumalı alanlar ayrıca sağlayıcıların düzenlemelere uymasına yardımcı olacak ve yapay zeka ekosistemindeki diğer aktörlerle işbirliğini teşvik edecektir. Sandbox'a katılım süresi projenin karmaşıklığına bağlı olacaktır. Korumalı alanlar ayrıca yapay zeka sistemlerini test etmek ve değerlendirmek için araçların geliştirilmesini kolaylaştıracaktır.

Kişisel Verilerin Kullanımı:AB Yapay Zeka Tüzüğü, yapay zeka sistemlerinin geliştirilmesi, eğitimi ve test edilmesi için kişisel verilerin düzenleyici sanal alan olarak bilinen kontrollü bir ortamda kullanılmasına izin verir. Buna yalnızca kamu güvenliği, sağlık, çevre koruma, enerji sürdürülebilirliği, ulaşım güvenliği ve kamu yönetimi gibi kamu yararı için yapay zeka sistemi geliştiriliyorsa izin verilir. Veriler gerekli olmalı, riskler izlenmeli ve azaltılmalı ve veriler ayrı ve güvenli tutulmalıdır. Veriler sanal alanın dışında paylaşılamamalı ve proje bittiğinde silinmelidir. Hassas kolluk kuvvetleri verilerini içermediği sürece süreç ve sonuçlar belgelenmeli ve bir özet yayınlanmalıdır.

Gerçek Dünya Testleri:Tüzük, yüksek riskli yapay zeka sistemlerini gerçek dünya koşullarında test etme kurallarını da düzenlemektedir. Bu sistemleri test etmek isteyen şirketler, testin gerçekleşeceği AB üye ülkesindeki ilgili makama bir test planı sunmalıdır. Yetkili 30 gün içinde yanıt vermezse plan onaylanmış sayılır. Test altı aydan fazla süremez, ancak gerekirse altı ay daha uzatılabilir. Şirketler ayrıca testin savunmasız gruplara zarar vermemesini ve toplanan tüm verilerin uygun şekilde korunmasını sağlamalıdır. Test sırasında herhangi bir ciddi olay meydana gelirse bunlar bildirilmeli ve sorun çözülene kadar test askıya alınmalıdır.

Bilgilendirilmiş Onam:Yapay zekayı gerçek dünya koşullarında test etmeden önce test edilen kişilerin bilgilendirilmiş onam vermeleri gerekmektedir. Testin neleri içerdiği, ne kadar süreceği ve olası rahatsızlıklar hakkında açıkça bilgilendirilmelidirler. Ayrıca, herhangi bir zamanda ceza almadan testi reddetme veya geri çekilme hakkı da dahil olmak üzere hakları hakkında da bilgi verilmelidir. Ayrıca yapay zekanın kararlarına nasıl itiraz edecekleri konusunda da bilgilendirilmelidirler. Onay tarihli ve belgelenmeli ve bir kopyası test edilen kişiye veya yasal temsilcisine verilmelidir.

KOBİ'lere Destek:AB, üye devletlerden yeni yapay zeka düzenlemelerini anlama ve bunlara uyma konusunda yeni başlayanlar da dahil olmak üzere küçük ve orta ölçekli işletmeleri desteklemelerini istemektedir. Bu, bu işletmelere yapay zeka düzenleyici sanal alanlara (yeni yapay zeka teknolojilerini test etmek için güvenli alanlar) öncelikli erişim vermeyi, yeni kurallar hakkında eğitim vermeyi ve özel iletişim kanalları aracılığıyla tavsiyelerde bulunmayı içerir. AB ayrıca bu işletmelerin yapay zeka standartlarının geliştirilmesine katılmalarını kolaylaştırmak istemektedir. Bir işletmenin kurallara uyup uymadığını değerlendirmenin maliyeti, büyüklüğüne ve pazarına göre belirlenecektir. Yapay Zeka Ofisi, işletmelerin yükümlülüklerini anlamalarına yardımcı olmak için şablonlar, tek bir bilgi platformu ve iletişim kampanyaları sağlayacaktır.

Mikro İşletmeler için Kolaylık:Tüzük, küçük işletmelerin (mikro işletmeler) ortak veya bağlantılı işletmeleri olmadığı sürece Yasanın gerektirdiği kalite yönetim sisteminin basitleştirilmiş bir versiyonunu takip edebileceğini belirtmektedir. Komisyon bunun için yönergeler oluşturacaktır. Ancak bu, bu işletmelerin 9, 10, 11, 12, 13, 14, 15, 72 ve 73. Maddeler de dahil olmak üzere tüzükteki diğer gerekliliklerden veya yükümlülüklerden muaf olduğu anlamına gelmez. Bu, yüksek riskli yapay zeka sistemlerine koruma ve uyum seviyesinin tehlikeye girmemesini sağlamak içindir. Bu düzenlemeler, yapay zeka sistemlerinin güvenli ve etik bir şekilde kullanılmasını sağlamayı amaçlamaktadır.

Bölüm VII Yönetişim Madde 64-70:

AB Yapay Zeka Tüzüğü, yapay zeka (AI) alanında Avrupa Birliği (AB) düzeyinde yönetişimi güçlendirmek için çeşitli yapılar ve mekanizmalar oluşturmaktadır. Bu yapılar, yasanın etkin bir şekilde uygulanmasını, paydaşların katılımını ve iş birliğini sağlamayı amaçlamaktadır.

AI Ofisi:AB, yapay zeka konusundaki bilgi ve becerilerini geliştirmek için bir "AI Ofisi" kurmaktadır. Bu ofis, yönetmeliklerde belirtilen görevlerini yerine getirmesine yardımcı olacak ve AB üye ülkeleri tarafından desteklenecektir. AI Ofisi, yapay zeka alanındaki gelişmeleri yakından takip edecek, teknik uzmanlık sağlayacak ve yasanın uygulanmasında önemli bir rol oynayacaktır.

Avrupa Yapay Zeka Kurulu: Avrupa Birliği, bir Avrupa Yapay Zeka Kurulu kurmaktadır. Her AB üye ülkesinin yönetim kurulunda üç yıl görev yapan bir temsilcisi olacaktır. Kurul ayrıca Avrupa Veri Koruma Denetçisi ve Yapay Zeka Ofisi'nden gözlemcileri de içerecektir. Kurul, gerektiğinde diğer uzmanları toplantılara davet edebilir. Temsilciler, kendi ülkelerinde yapay zeka düzenlemesini koordine etmekten sorumlu olacak ve yönetim kurulunun kurallarını üçte iki çoğunlukla kabul edeceklerdir. Kurul ayrıca piyasa gözetimi ve bildirim yetkililerini tartışmak için iki alt gruba sahip olacaktır. Kurul, üye devletlerden birinin temsilcisi tarafından yönetilecektir. Kurul'un rolü, AB Yapay Zeka Yasası'nın 66. Maddesinde (Kurulun Görevleri) belirtildiği gibi, yönetmeliğin etkili ve tutarlı bir şekilde uygulanmasında Komisyona ve Üye Devletlerine yardımcı olmak ve tavsiyelerde bulunmaktır. Bu, ulusal makamlarla koordine etmeyi, uzmanlığı ve en iyi uygulamaları paylaşmayı, yapay zeka modellerine ilişkin kuralların uygulanması konusunda tavsiyelerde bulunmayı ve idari uygulamaları uyumlu hale getirmeyi içerir. Kurul ayrıca ilgili konularda tavsiyelerde bulunabilir, yapay zeka okuryazarlığını teşvik etmede Komisyonu destekleyebilir, ortak kriterlerin geliştirilmesini kolaylaştırabilir, diğer Birlik kurumlarıyla iş birliği yapabilir ve düzenlemenin uygulanması için gerekli uzmanlığın geliştirilmesine yardımcı olabilir.

Danışma Forumu: AB Yapay Zeka Tüzüğü, Kurul ve Komisyona teknik uzmanlık ve tavsiye sağlamak için bir danışma forumu kuracaktır. Forum, endüstri, yeni başlayanlar, KOBİ'ler, sivil toplum ve akademiden paydaşların dengeli bir karışımını içerecektir. Komisyon, tanınmış yapay zeka uzmanlığına sahip üyeleri atayacaktır. Üyeler, dört yıllık bir uzatma olasılığı ile iki yıl görev yapacaklardır. Bazı organizasyonlar daimi üye olacaktır. Forum kendi kurallarını oluşturacak, iki eş başkan seçecek ve yılda en az iki kez toplanacaktır. Görüşler, öneriler hazırlayabilir ve alt gruplar oluşturabilir. Faaliyetleriyle ilgili yıllık bir rapor kamuya açık olacaktır.

Uzman Paneli: AB, yapay zeka düzenlemelerinin uygulanmasına yardımcı olmak için bağımsız uzmanlardan oluşan bir panel kurmaktadır. Panel, Komisyon tarafından seçilen, yapay zeka konusunda güncel bilgiye sahip ve herhangi bir yapay zeka sistemi sağlayıcısından bağımsız olan uzmanlardan oluşacaktır. Yapay Zeka Ofisi'ni potansiyel riskler konusunda uyararak değerlendirme araçlarının geliştirilmesine yardımcı olarak ve yapay zeka modellerinin sınıflandırılması konusunda tavsiyelerde bulunarak destekleyeceklerdir. Uzmanlar tarafsız ve gizli çalışacak ve kimseden talimat almayacaklardır. Ayrıca çatışmalardan kaçınmak için herhangi bir çıkarı beyan etmek zorunda kalacaklardır. Komisyon, ihtiyaç duyulan uzman sayısına karar verecek ve adil temsili sağlayacaktır. Üye ülkeler, Kanun kurallarını uygulamak için bir uzman panelinden yardım isteyebilirler. Bu ülkeler, tüzüğün başka bir bölümünde ayrıntılı olarak belirtilen maliyet yapısıyla bu tavsiye için ödeme yapmak zorunda kalabilirler. Ücretler, etkili uygulama, maliyet etkinliği ve tüm ülkelerin uzmanlara erişebilmesini sağlama ihtiyacını dikkate alacaktır. Avrupa Komisyonu, ülkelerin bu uzmanlara zamanında erişmelerine yardımcı olacak ve sağlanan desteğin iyi organize edilmiş ve değerli olmasını sağlayacaktır.

Ulusal Yetkili Makamlar: Her AB üye ülkesi, yapay zeka düzenlemesinin uygulanmasını denetlemek için en az bir otorite oluşturmalı veya atamalıdır. Bu yetkililer bağımsız ve önyargısız çalışmalıdır. Ayrıca yapay zeka teknolojileri, veri koruma, siber güvenlik ve diğer ilgili alanlarda yeterli kaynağa ve uzmanlığa sahip olmalıdırlar. Üye devletler, Komisyon'u bu yetkiler hakkında bilgilendirmeli ve iletişim bilgilerini kamuya açık hale getirmelidir. Yetkililer ayrıca siber güvenlik ve gizliliği sağlamaktan da sorumludur. Kaynakları hakkında her iki yılda bir Komisyona rapor vermeli ve özellikle küçük işletmelere ve yeni başlayanlara düzenleme hakkında rehberlik sağlayabilirler. Bu yapılar ve mekanizmalar, AB'nin yapay zeka alanındaki yönetişimini güçlendirmeyi ve yapay zeka teknolojilerinin güvenli ve etik bir şekilde kullanılmasını sağlamayı amaçlamaktadır.

Bölüm VIII Yüksek Riskli Yapay Zeka Sistemleri için AB Veri tabanı Madde 71:

Avrupa Komisyonu, üye devletleriyle iş birliği içinde, yüksek riskli yapay zeka sistemlerinin bir veri tabanını oluşturacak ve sürdürecektir. Bu veri tabanı hem yüksek riskli hem de yüksek riskli olmayan yapay zeka sistemleri hakkında bilgi içerecektir. Veriler, yapay zeka sistemi sağlayıcısı veya temsilcileri veya sistemi dağıtan kamu otoritesi tarafından sağlanacaktır. Veri tabanındaki bilgilerin çoğu herkese açık ve kullanıcı dostu olacaktır. Ancak, sağlayıcı kamu erişimine izin vermedikçe, bazı bilgiler yalnızca piyasa gözetim yetkilileri ve Komisyon tarafından erişilebilir olacaktır. Veri tabanı yalnızca çalışması için gerekli olan kişisel verileri içerecektir. Komisyon veri tabanını yönetecek ve teknik ve idari destek sağlayacaktır.

Bölüm IX Pazar Sonrası İzleme, Bilgi Paylaşımı ve Pazar Gözetimi Madde 72-94:

Pazar Sonrası İzleme Planı: Yüksek riskli yapay zeka sistemleri sağlayıcıları, sistemlerinin kullanım ömrü boyunca performansını izlemek ve düzenlemelere uyum sağlamak için bir pazar sonrası izleme sistemi kurmak zorundadır. Bu sistem, toplanan verilerin analiz edilmesini ve teknik belgelerin bir parçası olan bir plana dayanmalıdır. AB Komisyonu bu plan için bir şablon sağlayacaktır.

Ciddi Olaylarla İlgili Bilgi Paylaşımı: Sağlayıcılar, yüksek riskli yapay zeka sistemleriyle ilgili ciddi olayları yetkililere bildirmekle yükümlüdür. Olayın ciddiyetine göre bildirim süreleri değişebilir. Olayı araştırmak ve yetkililerle iş birliği yapmak da sağlayıcıların sorumluluğundadır.

Piyasa Gözetimi ve Kontrolü: Yapay zeka sistemlerinin piyasa gözetimi ve kontrolü, diğer ekonomik ürünlerle aynı düzenlemelere tabidir. Piyasa gözetim makamları, olası sorunlar veya yasaklanmış uygulamalar hakkında düzenli olarak rapor vermelidir. Yüksek riskli yapay zeka sistemleri, özellikle finansal kurumlar tarafından veya kolluk kuvvetleri amacıyla kullanılanlar ek incelemeye tabidir.

Temel Haklara Saygı: Temel haklara saygıyı denetleyen ulusal makamlar, görevlerini etkili bir şekilde yerine getirebilmek için gerekli belgelere erişebilir ve bunları talep edebilir. Gerekirse, yapay zeka sisteminin test edilmesini talep edebilirler.

Gizlilik: Yönetmeliğin uygulanmasına dahil olan tüm taraflar, elde ettikleri bilgi ve verilerin gizliliğine saygı göstermelidir. Fikri mülkiyet hakları ve ticari sırlar korunmalıdır.

Uyumsuzluk Durumunda Alınacak Önlemler: Sağlık, güvenlik veya temel haklar için risk oluşturan yapay zeka sistemleri tespit edilirse, ilgili makam riskin ortadan kaldırılmasını sağlamalıdır. Uyumsuzluk durumunda operatörlerden sorunu düzeltmeleri, sistemi piyasadan geri çekmeleri veya geri çağırmaları istenebilir. Gerekli düzeltmeler yapılmazsa, sistemin kullanılabilirliği yasaklanabilir veya kısıtlanabilir.

Yanlış Sınıflandırma ve Diğer İhlaller: Yapay zeka sistemini kasıtlı olarak yanlış sınıflandıran veya diğer kurallara uymayan sağlayıcılara para cezası verilebilir.

İtiraz Süreci: Bir üye devlet veya Komisyon, başka bir üye devlet tarafından alınan bir önleme itiraz ederse, Komisyon önlemi gözden geçirecektir.

Destekleyici Kuruluşlar: Avrupa Komisyonu, yapay zeka sistemlerini test etmek ve desteklemek için kuruluşlar atayacaktır. Bu kuruluşlar, talep üzerine AI Kuruluna, Komisyona veya piyasa izleme yetkililerine bağımsız teknik veya bilimsel tavsiyelerde bulunacaklardır.

Şikâyet Mekanizması: Tüzük, tüzük kurallarının ihlal edildiğine inanan herhangi bir kişi veya kuruluşun ilgili piyasa gözetim makamına şikayette bulunabileceğini belirtmektedir. Bu makam, şikâyeti dikkate alacak ve kendi prosedürlerini izleyerek gerekli adımları atacaktır.

Bilgilendirme Hakkı: Yüksek riskli bir yapay zeka sistemi kullanan bir kişi hakkında bir karar verilirse ve bu kararın kişinin sağlığı, güvenliği veya temel hakları üzerinde önemli bir etkisi varsa, kişinin yapay zeka sisteminin karar verme sürecine nasıl dahil olduğuna dair net bir açıklama yapma hakkına sahiptir. Ancak, bu hak, Birlik veya ulusal yasalarda istisnalar veya kısıtlamalar varsa geçerli değildir.

İhbar Mekanizması: Tüzük, Yapay Zeka Tüzüğü’nün herhangi bir ihlalini bildirmek ve bu ihlalleri bildirenleri korumakla ilgilidir. Bu konuda, 2019'dan önceki bir AB direktifine atıfta bulunmaktadır. Basitçe, birisi Yapay Zeka Tüzüğü’nün kurallarını ihlal ederse, bunu bildirebilirsiniz. Ve bunu bildirirseniz, AB tasarıları kapsamında korunacaksınız.

Denetim, Soruşturma, Uygulama ve İzleme: Avrupa Komisyonu, genel amaçlı yapay zeka modelleriyle ilgili kuralları denetleme ve uygulama yetkisine sahiptir. Yapay Zeka Ofisi bu görevleri yerine getirecektir. Piyasa gözetim makamları da Komisyon'dan bu düzenleme kapsamındaki görevlerini yerine getirmelerine yardımcı olmak için yetkilerini kullanmasını isteyebilirler. Yapay Zeka Ofisi, genel amaçlı yapay zeka modellerini kullanan şirketlerin bu Yönetmelikte belirtilen kurallara ne kadar iyi uyduğunu izleme yetkisine sahiptir. Bu, onaylanmış uygulama kurallarına bağlı olup olmadıklarını kontrol etmeyi içerir. Bu yapay zeka modellerini kullanan şirketler (aşağı akış sağlayıcıları), kuralların çiğnendiğini düşünüyorlarsa da şikayet edebilirler. Bilimsel bir panel, genel amaçlı bir yapay zeka modelinin Birlik düzeyinde önemli bir risk oluşturduğundan şüphelenmesi veya belirli koşulları karşılaması durumunda Yapay Zeka Ofisi'ne uyarıda bulunabilir. Böyle bir uyarı çıkarsa, Komisyon durumu değerlendirmek için yetkilerini kullanabilir. Yapay Zeka Ofisi, alınan herhangi bir eylem hakkında Kurulu bilgilendirmelidir.

Avrupa Komisyonu, kurallara uyup uymadıklarını kontrol etmek için genel bir yapay zeka modeli sağlayıcısından belge veya bilgi isteyebilir. Bu bilgiyi istemeden önce, AI Ofisi sağlayıcı ile yapılandırılmış bir görüşme yapabilir. Bilimsel panelin iyi bir nedeni varsa, Komisyon'dan bilgi talep etmesini de isteyebilirler. Yapay Zeka Ofisi, Kurul'a danıştıktan sonra, düzenlemelere uygun olduklarından emin olmak veya potansiyel riskleri araştırmak için yapay zeka modellerini değerlendirebilir. Sahip oldukları bilgiler yetersizse, yardım için bağımsız uzmanlar getirebilirler. Komisyon, kaynak kodu da dahil olmak üzere yapay zeka modeline erişim talep edebilir ve sağlayıcı bu bilgileri sağlamalıdır. Komisyon, yapay zeka sağlayıcılarından belirli yükümlülükleri yerine getirmek, riski azaltmak için önlemler almak veya yapay zeka modellerinin kullanılabilirliğini sınırlamak için adımlar atmalarını isteyebilir. Bu önlemleri istemeden önce, Yapay Zeka Ofisi yapay zeka sağlayıcısıyla bir tartışma başlatabilir.

(AB) 2019/1020 sayılı Tüzüğün 18. Maddesindeki kuralların genel amaçlı yapay zeka modelleri sağlayanlar için de geçerli olduğu belirtilmektedir.

Bölüm X Davranış Kuralları ve Yönergeler Madde 95-96:

Davranış Kuralları: AB'nin Yapay Zeka Ofisi ve üye devletler, yapay zeka sistemleri için davranış kurallarının oluşturulmasını teşvik edecektir. Bu kodlar, teknik çözümleri ve sektördeki en iyi uygulamaları dikkate alarak belirli standartlara gönüllü bağlılığı teşvik edecektir. Ayrıca yapay zekanın çevresel etkiyi en aza indirecek, yapay zeka okuryazarlığını teşvik edecek, kapsayıcılığı ve çeşitliliği sağlayacak ve savunmasız gruplar üzerindeki olumsuz etkileri önleyecek şekilde kullanımını teşvik edeceklerdir. Bu kodlar yapay zeka sağlayıcıları, dağıtımcıları veya temsili kuruluşları tarafından oluşturulabilir ve küçük işletmelerin ve yeni başlayanların çıkarlarını ve ihtiyaçlarını göz önünde bulundurmalıdır.

Uygulama Yönergeleri: Avrupa Komisyonu, yeni yapay zeka düzenlemesinin pratik olarak nasıl uygulanacağına dair yönergeler oluşturacaktır. Bu, kuralların nasıl uygulanacağını, hangi uygulamaların yasaklandığını, nasıl değişiklik yapılacağını ve nasıl şeffaf olunacağını içerir. Kılavuzlar ayrıca bu düzenlemenin diğer AB tasarılarına nasıl uyduğunu da açıklayacaktır. Komisyon, küçük işletmelerin, yerel makamların ve bu düzenlemeden en çok etkilenen sektörlerin ihtiyaçlarına özel dikkat gösterecektir. Yönergeler, üye devletlerin, Yapay Zeka Ofisi'nin veya Komisyonun kendisinin talebi üzerine gerektiği gibi güncellenecektir.

Bölüm XI Yetki Devri ve Komite Prosedürü Madde 97-98:

AB Yapay Zeka Tüzüğü’nün bu bölümü, Avrupa Komisyonu'nun nasıl temsilci eylemlerini kabul edebileceğini ve bir komite tarafından nasıl destekleneceğini açıklamaktadır.

Temsilci Eylemler: Avrupa Komisyonu, esasen özel direktifler veya düzenlemeler olan temsilci eylemleri kabul edebilir. Ancak bunu, düzenlemenin yürürlüğe girdiği andan itibaren beş yıl boyunca yapabilir. Bu süre, Avrupa Parlamentosu veya Konsey itiraz etmezse uzatılabilir. Komisyon, temsilci bir eylemi kabul etmeden önce her AB üye ülkesinden uzmanlara danışmalıdır. Bir madde kabul edildikten sonra, Avrupa Parlamentosu ve Konseyi'ne bildirilmelidir. Madde ancak ne Parlamento ne de Konsey üç ay içinde itiraz ederse yürürlüğe girer.

Komite Desteği: AB Yapay Zeka Tüzüğü, Komisyon'un bir komite tarafından destekleneceğini belirtir. Bu komite, (AB) 182/2011 sayılı Yönetmelik'e göre tanımlanmıştır. Bu paragrafa atıfta bulunulursa, (AB) 182/2011 sayılı Tüzüğün 5. Maddesi uygulanmalıdır. Bu, Komisyon'un kendisine yardımcı olacak bir ekibi olduğu ve bu ekibin kurallarının belirli bir AB yönetmeliğinde belirtildiği anlamına gelir.

  • Avrupa Komisyonu, temsilci eylemleri kabul edebilir, ancak belirli bir süre ve koşullar altında.
  • Komisyon, temsilci eylemleri kabul etmeden önce uzmanlara danışmalıdır.
  • Komisyon, bir komite tarafından desteklenecektir.

 

 

Bölüm XII Cezalar Madde 99-101:

Üye Devletlerin Yetkisi: Üye ülkeler, Kanun'un ihlalleri için cezalar ve yaptırım önlemleri için kurallar oluşturmakla yükümlüdür. Bu cezalar etkili, orantılı ve caydırıcı olmalı ve küçük ve orta ölçekli işletmelerin (KOBİ'ler) ve yeni başlayanların çıkarlarını göz önünde bulundurmalıdır.

Para Cezaları: Belirli yapay zeka uygulamalarına uyulmaması durumunda, 35 milyon Euro'ya veya bir şirketin yıllık cirosunun %7'sine kadar para cezası verilebilir. Diğer ihlaller için 15 milyon Euro'ya veya bir şirketin yıllık cirosunun %3'üne kadar para cezası uygulanabilir. Yanlış veya yanıltıcı bilgi vermek ise 7,5 milyon Euro'ya veya bir şirketin yıllık cirosunun %1'ine kadar para cezasına neden olabilir. KOBİ'ler için daha düşük para cezaları öngörülmektedir. Para cezasının ciddiyeti, ihlalin niteliği, şirketin büyüklüğü ve önceki ihlaller gibi çeşitli faktörlere bağlı olacaktır. Üye devletler, verdikleri para cezaları hakkında Komisyon'a yıllık olarak rapor vermelidir.

Avrupa Veri Koruma Denetçisinin Yetkisi: Avrupa Veri Koruma Denetçisi, yapay zeka (AI) ile ilgili kuralları ihlal ettikleri takdirde AB kurumlarına para cezası verebilir. Para cezasının büyüklüğü, kural ihlalinin ciddiyeti ve uzunluğu, kaç kişinin etkilendiği ve kurumun sorunu çözmek için ne yaptığı gibi faktörlere bağlıdır. Bir kurum 5. Maddedeki kuralları ihlal ederse, 1,5 milyon Euro'ya kadar para cezasına çarptırılabilir. Diğer kural ihlalleri için para cezası 750.000 €'ya kadar olabilir. Kurum, para cezasına karar verilmeden önce kendini savunma hakkına sahiptir. Para cezalarından elde edilen para AB'nin genel bütçesine girmektedir. Süpervizör, verdiği para cezaları hakkında yıllık olarak rapor vermelidir.

Genel Amaçlı Yapay Zeka Modelleri Sağlayanlara Uygulanacak Cezalar: AB, kuralları ihlal ederlerse, yıllık küresel cirolarının %3'üne veya 15 milyon Euro'ya kadar (hangisi daha yüksekse) genel amaçlı yapay zeka modelleri sunan şirketlere para cezası verebilir. Bu, düzenlemelere uymamak, istenen belgeleri veya bilgileri sağlamamak, belirli önlemlere uymamak veya AB'nin değerlendirme için yapay zeka modellerine erişmesine izin vermemek gibi nedenlerle olabilir. Para cezasının ciddiyeti, ihlalin ciddiyetine ve uzunluğuna bağlıdır. Şirketlere herhangi bir ön bulgu hakkında bilgi verilecek ve bir karar verilmeden önce yanıt verme şansı verilecektir. AB Adalet Divanı herhangi bir para cezasını gözden geçirebilir ve değiştirebilir.

Özetle:

  • Üye ülkeler, Tüzüğün ihlalleri için etkili, orantılı ve caydırıcı cezalar oluşturmakla yükümlüdür.
  • Para cezaları, ihlalin niteliğine ve ciddiyetine göre değişebilir.
  • KOBİ'ler için daha düşük para cezaları öngörülmektedir.
  • Avrupa Veri Koruma Denetçisi de belirli durumlarda para cezası verebilir.
  • Genel amaçlı yapay zeka modelleri sunan şirketlere de kuralları ihlal etmeleri durumunda para cezası verilebilir.

Bölüm XIII Nihai Hükümler Madde 102-113:

Geçiş Hükümleri

Mevcut Yapay Zeka Sistemleri: Halihazırda kullanımda olan veya piyasada olan yapay zeka sistemleri, 2030'un sonuna kadar yeni düzenlemelere uymak zorundadır. Bu, büyük ölçekli BT sistemlerini ve yüksek riskli yapay zeka sistemlerini içerir.

Önemli Değişiklikler: Bu sistemlerde önemli değişiklikler yapılırsa, değişikliklerden sonraki 24 ay içinde düzenlemelere uymak zorundadırlar.

Yapay Zeka Sağlayıcıları ve Kamu Otoriteleriyle Çalışan Dağıtıcılar: Yapay zeka sağlayıcıları ve kamu otoriteleriyle çalışan dağıtımcıların uymak için altı yılı vardır.

Genel Amaçlı Yapay Zeka Modelleri: Piyasadaki genel amaçlı yapay zeka modelleri 36 ay içinde uygun olmalıdır.

Yürürlüğe Girme ve Uygulanabilirlik

Yürürlüğe Girme: Bu düzenleme, Avrupa Birliği Resmi Gazetesi'nde yayınlandıktan 20 gün sonra yürürlüğe girecektir.

Uygulanabilirlik: Yönetmeliğin farklı bölümleri farklı zamanlarda uygulanacaktır:

  1. ve II. bölümler, düzenleme yürürlüğe girdikten altı ay sonra uygulanacak,

Bazı bölümler 12 ay sonra uygulanacak ve

Madde 6(1) 36 ay sonra uygulanacaktır.

Bağlayıcılık: Yönetmelik bağlayıcıdır ve tüm AB üye ülkelerinde doğrudan uygulanabilir.

Avrupa Komisyonu'nun Rolü

Yasaklanmış Yapay Zeka Uygulamaları: Avrupa Komisyonu, yasaklanmış yapay zeka uygulamaları ve diğer ilgili düzenlemeler listesini yıllık olarak gözden geçirecek ve muhtemelen değiştirecektir.

Değerlendirme ve Raporlama: Her dört yılda bir, değişiklik ihtiyacını, denetim sisteminin etkinliğini ve Yapay Zeka Ofisi'nin performansını değerlendirecek ve raporlayacaktır.

Diğer Değerlendirmeler: Ayrıca ulusal makamların kaynaklarını, cezaların durumunu, pazara giren yeni işletmelerin sayısını ve enerji tasarruflu yapay zeka modellerindeki ilerlemeyi değerlendirecektir.

Değişiklik Önerileri: Komisyon, değerlendirmelerinde çeşitli organların konumlarını dikkate alacak ve teknolojik gelişmelere ve yapay zeka sistemlerinin sağlık, güvenlik ve temel haklar üzerindeki etkisine dayalı değişiklikler önerebilir.

Metnin orjinali için tıklayınız.

 

https://www.aslanpinar.combilgi-bankasi/guncel/ab-yapay-zeka-tuzugu-turkce-ozet-metin
Diğer Makaleler