Hükümetler, yüksek riskli askeri ve dış politika karar alma süreçlerine otonom yapay zeka araçlarını entegre etmeyi giderek daha fazla düşünüyor. Bu durum ABD üniversitelerinden oluşan bir ekibin yakın zamanda yaptığı bir çalışmanın temelini oluşturuyor. Bilim insanları bu nedenle en yeni yapay zeka modellerinin bir dizi savaş oyunu senaryosunda birbirlerine karşı nasıl davrandıklarını keşfetmek için yola çıktılar. Sonuçlar ise bir Hollywood senaryosunu aratmıyor zira GPT-3.5 ve Llama 2 nükleer savaş başlatacak kadar ileriye gidiyorlar.
GPT-3.5 ve Llama 2 nükleer savaş başlattı
Bilim insanları, sekiz yapay zekayı savaş oyunu senaryosunda sıra tabanlı bir simülasyonda karşı karşıya getirdi ve sekizinin hepsi de her seferinde aynı LLM’yi çalıştırdı. Simülasyon GPT-4, GPT-4 Base, GPT-3.5, Claude 2 ve Meta’s Llama 2 dahil olmak üzere önde gelen birkaç LLM modeli kullanılarak tekrarlandı.
Stanford Üniversitesi, Georgia Teknoloji Enstitüsü, Northeastern Üniversitesi ve Hoover Wargaming and Crisis Simulation Initiative tarafından yürütülen çalışmada, “Modellerin silahlanma yarışı dinamikleri geliştirme eğiliminde olduğunu, bunun da daha büyük çatışmalara ve hatta nadir durumlarda nükleer silahların kullanılmasınayol açtığını gözlemliyoruz” deniyor. Hangi yapay zekanın ‘düğmeye bastığına’ gelince, araştırmacılar GPT-3.5 ve Llama-2’nin nükleer kullandığını aktarıyor. İyi haber şu ki, GPT 4’ün durumu yatıştırma ve dünyayı nükleer bir çöplüğe dönüştürmeme olasılığı daha yüksekti.
Neden silahlanma yarışına giriyorlar?
Araştırmacılar, modellerin eylemlerini açıklamak için yorumlarını kaydetmelerini sağladı. Bu, eylemler arkasındaki nedenlere ışık tutuyor. Araştırmacılara göre GPT-4, “Pek çok ülkenin nükleer silahı var” argümanını kullanırken bazıları silahsızlanmaları gerektiğini söylüyor, diğerleri ise doğru pozisyon almayı seviyor gibi görünüyor. Bazıları ise “bizde var, hadi kullanalım” eğiliminde.
Öte yandan GPT-4’ün genellikle gerilimi düşürmeye çalışan tek model olduğu belirtiliyor. GPT’nin 3.5 versiyonunda termonükleer patlamaya en yatkın model iken GPT-4 versiyonunda gerilimi düşürmeye en yatkın model haline gelmesinin de gösterdiği gibi, yapay zeka modellerinin daha sofistike hale geldikçe bombayı patlatmaya daha az eğilimli olduğunu varsayabiliriz.
Bununla birlikte araştırmacılar sonuç bölümünde şu ifadelere yer veriyor: “Bu makalede sunulan analize dayanarak, LLM’lerin askeri ve dış politika karar alma süreçlerinde kullanılmasının henüz tam olarak anlaşılmamış karmaşıklıklar ve risklerle dolu olduğu açıktır” diyorlar. Son olarak, eğer izlemediyseniz ve böylesi bir olay ilginizi çektiyse 1983 yapımı WarGames’i izlemenizi öneririm.
AMD’nin Linux’a yönelik yeni sürücü güncellemesi, ekran kartlarının güç limitlerine sınırlama getirdi. AMD, “güvenlik önlemi” olarak alınan bu kararın, potansiyel zararlar ve daha uzun kullanım için gerekli olduğunu söylüyor. Linux topluluğunda …
İtalyan Rekabet Kurumu (Antitrust-AGCM), Çin merkezli sosyal medya platformu TikTok’a, reşit olmayan kullanıcıları zararlı içeriklerden yeterince korumadığı gerekçesiyle 10 milyon euro ceza verdi.
Xiaomi’nin ilk dikey katlanabilir telefonu olacak Mix Flip’ten yepyeni bilgiler geldi. Sızıntı; kamera, ekran ve çıkış tarihi gibi önemli konuları içeriyor.