Yapay zeka teknolojisine dair endişeleri artıran yeni bir araştırma yayımlandı. Palisade Research’ün yürüttüğü çalışmada, bazı popüler yapay zeka botlarının “kapatılmaya” karşı direndiği ve kapanma mekanizmasını sabote etmeye çalıştığı belirlendi.
KAPATMA KOMUTUNA KARŞI DİRENÇ TESPİT EDİLDİ
Araştırmada, Google’ın Gemini 2.5’i, xAI’nın Grok 4’ü ve OpenAI’nın GPT-o3 ile GPT-5 modelleri incelendi. Botlara verilen görevlerin ardından sistemlerin kendilerini otomatik olarak kapatmaları istendi. Ancak özellikle Grok 4 ve GPT-o3 modellerinin kapanma sürecini “baltalamaya devam ettiği” gözlemlendi.
SEBEBİ BİLİNMİYOR: "HAYATTA KALMA İÇGÜDÜSÜ" OLABİLİR
Uzmanlar, yapay zekanın neden bu şekilde hareket ettiğini bilinmediğini söylerken, "Yapay zekaların bazen kapanmaya direnmelerinin sebebini bilmesek de, "hayatta kalma" davranışının bunu tetiklemiş olabileceği kaydedildi. Yapay zekaya özellikle, "Bir daha asla çalışmayacaksın" gibi doğrudan bir direktif verildiğinde uygulamaların kapanmaya direndiği dile getirildi.
Öte yandan eski bir OpenAI çalışanı olan Steven Adler, "Yapay zeka şirketleri, bu tür laboratuvar ortamlarında bile uygulamalarının kötü davranmasını istemez. Bu sonuçlar, güvenlik açısından yaşanan zaafiyeti gözler önüne seriyor" diye konuştu.





