Yapay zekâ teknolojilerine yönelik atılımlar her geçen gün artarken, devletler de sektörü düzenlemek için faaliyetlerine hız vermiş durumda.
Reuters’ın haberine göre G7, ileri yapay zekâ teknolojileri geliştiren şirketler için yönetim kuralları üzerinde anlaşmaya varacak.
Reuters tarafından görülen belgeye göre yeni kurallar, gizlilik endişeleri ve güvenlik riskleri sebebiyle yapay zekâya karşı tedbir almak isteyen ülkelerin, nasıl bir anlayış benimsediğini ortaya koydu.
ABD, Kanada, Fransa, Almanya, İtalya, Japonya ve Birleşik Krallık’ın meydana getirdiği G7, konuya ilişkin süreci geçtiğimiz mayıs ayında “Hiroşima AI süreci” adıyla başlattı.
Risklere karşı mücadele vurgusu
G7 belgesindeki 11 maddenin, dünya genelinde güvenli yapay zekâyı teşvik etmeyi amaçladığı ve en gelişmiş yapay zekâ sistemleri geliştiren kuruluşların eylemleri için rehberlik sağlayacağı belirtildi.
“Bu teknolojilerin özelliklerinden yararlanılmasına ve risklerin ele alınmasına yardımcı olmayı amaçlamaktadır”
G7’nin hamlesi, şirketlerin yapay zekâ risklerini tanımlaması, azaltması ve ürünlerin piyasaya sürülmesinin ardından potansiyel kötü kullanımla mücadele etmesini teşvik ediyor. Buna göre şirketler, yapay zekâ sistemlerinin yetenekleri, sınırlamalar ve kötüye kullanımına ilişkin kamuya açık raporlar yayımlamak durumunda kalacak.
Avrupa Birliği, yapay zekâyı yönetmek için önemli adımlar atarken, ABD ve Japonya’da ise daha müdahaleci bir anlayış hakim durumda.