Yapay Zeka Yasası: Son derece tartışmalı eşik yakında geçerliliğini yitirebilir

Draqon

Aktif Üye
AB Parlamentosu'nun çarşamba günü kabul ettiği yapay zeka (AI) düzenlemesine göre, OpenAI'den GPT, Google'dan Gemini veya Meta'dan LLaMA gibi temel modellerin operatörlerinin öngörülebilir sistemik riskleri incelemesi ve gerekiyorsa azaltması gerekiyor. Örneğin sağlık, güvenlik, temel haklar ve çevre alanlarıyla ilgilidir. Milletvekilleri, genel amaçlı ve “yüksek verimliliğe” sahip “temel modelleri” için özellikle katı yükümlülükler uygulayabildiler. Ayrıca düşman saldırılarıyla ilgili testler yapmaları, ciddi olayları AB Komisyonu'na bildirmeleri ve enerji verimliliklerini raporlamaları gerekiyor.

Reklamcılık



AI Yasası'nın 51. Maddesine göre, Brüksel hükümet kurumu, diğer şeylerin yanı sıra, bu tür modellerin sınıflandırılması için niceliksel bir eşik olarak eğitim için kullanılan bilgi işlem gücünü kullanmalıdır. Bu nedenle, her şeyden önce, eğitim için kullanılan hesaplamaların “kümülatif miktarı”, saniyede kayan nokta işlemleriyle (flop) ölçülen 25 (10^25) kayan nokta işleminin üssü 10'dan fazlaysa, yüksek etkinlik varsayılabilir. Ancak AI yasasının meclis eş raportörü Dragoş Tudorache, bu zorunluluğun yakında geçerliliğini yitireceğini itiraf etti.

Müzakereci Euractiv portalına, kuralların yaklaşık 12 ay içinde yürürlüğe girmesiyle birlikte bu eşiği aşan dört veya beş büyük temel modelin olabileceğini söyledi. Ancak güçlü temel modellere yönelik bilgi işlem gereksinimlerini büyük ölçüde azaltacak yeni bir teknolojik sıçrama da mümkün. Şu anda yalnızca ChatGPT'li OpenAI ve Gemini'li Google'ın muhtemelen çok yüksek gereksinimleri karşılaması gerekecek. Mevcut OpenAI modeli GPT-4'ü eğitmek için gereken bilgi işlem gücünün 10^25 flop'un biraz üzerinde olduğu tahmin ediliyor. Önceki GPT-3 için yaklaşık 10^18 floplu bir kümenin kullanıldığı söyleniyor. Karşılaştırma için: Yapay zeka amaçları için özel olarak tasarlanan Nvidia sunucusu DGX H100'ün performansı 10^16 flop civarındadır.

Limit değeri tartışmalı, ek kriterler uygulanmalı


Oxford İnternet Enstitüsü'nde teknoloji ve düzenleme profesörü Sandra Wachter, Euractiv'i eleştirdi: Flop eşiği “bilgi işlem gücünü riskle karıştırıyor” ki bunlar iki farklı şey. Bu modeller boyutları ne olursa olsun önyargı, yanlış bilgi, mahremiyet ve halüsinasyonlar açısından her türlü riski taşıyordu. Yapay Zeka ve Dijital Politika Merkezi Başkanı Merve Hickok, Yapay Zeka yasasının temel modellerle ilgili kısmının Aleph Alpha ve Mistral gibi Avrupalı oyuncuların yoğun lobi faaliyetlerinin bir sonucu olduğunu ekledi. Aynı zamanda Silikon Vadisi'ndeki mühendisler, yalnızca maliyet nedeniyle yapay zeka eğitimi için gereken muazzam bilgi işlem çabasını azaltmak için çok çalışıyorlar. Mevzuat muafiyetleri genellikle açık kaynak modelleri için geçerlidir.

10^25 floplar kesin olarak belirlenmemiştir. Yönetmeliğin 111. Beyanında şöyle denmektedir: “Bu eşik, algoritmik iyileştirmeler veya artan donanım verimliliği gibi teknolojik ve endüstriyel değişiklikleri hesaba katacak şekilde zaman içinde ayarlanmalı ve model kabiliyetine ilişkin karşılaştırmalı değerlendirmeler ve göstergelerle desteklenmelidir.” Ancak yasa koyucuların büyük çabalar sonucunda ortak bir metin üzerinde anlaşmaya varmalarını sağladıktan sonra revizyonun kolay olması pek mümkün görünmüyor. Ek'e göre Komisyonun sınıflandırma yaparken modelin parametre sayısı, veri setinin kalitesi veya boyutu, yeni, farklı görevleri öğrenebilme yeteneği ve modelin sayısı gibi diğer kriterleri de dikkate alması gerekiyor. kullanıcılar.


(mki)



Haberin Sonu