
OpenAI ve Anthropic, yapay zekanın kötüye kullanımına karşı önlem almak amacıyla önemli bir adım attı. Her iki şirket, yapay zeka güvenliği konusunda çalışmalar yürüten ve dikkat çeken bir startup olan Irregular’a yatırım yaptı. Amaç: Yapay zekanın kötü niyetli amaçlarla kullanılmasını önceden tespit edebilmek ve bu tehditlere karşı simülasyonlar yaparak savunma sistemleri geliştirmek.
Irregular: Tehlikeyi Test Eden Girişim
Yapay zekaların etik dışı kullanımına karşı mücadele etmek için kurulan Irregular, “red teaming” adı verilen bir metodolojiyi benimsiyor. Bu yöntemle, yapay zekaların birer saldırgan gibi davranarak sistemlerdeki açıkları test etmesi sağlanıyor.
Şirketin kurucularından Dan Lahav, yapay zekanın potansiyel zararlarını görmezden gelmenin ileride çok daha büyük güvenlik krizlerine yol açabileceğini belirtiyor:
“Süper zeka çağında bu problemler çok daha büyüyecek.”
Sam Altman’ın Uyarısı Gerçek Oldu
OpenAI kurucusu Sam Altman, geçtiğimiz yıl yapay zekanın siber suçlarda kullanılabileceğine dair sert bir uyarı yapmıştı. Özellikle insan sesini ve görüntüsünü taklit eden modellerin, kimlik hırsızlığı ve dolandırıcılıkta kullanılabileceği öngörülmüştü.
İlginç bir şekilde bu tehdidin en etkili aracı, Altman’ın liderliğini yaptığı şirketin ürünü olan ChatGPT gibi modeller olabilir. Bu da, yapay zeka şirketlerinin kendilerini denetleyecek sistemlere yatırım yapmasının önemini bir kez daha gözler önüne seriyor.
80 Milyon Dolarlık Yatırım, 450 Milyon Dolarlık Değerleme
2023’te kurulan Irregular, kısa sürede büyük başarı elde etti.
-
Sequoia Capital liderliğinde yürütülen yatırım turuyla toplam 80 milyon dolar fon topladı.
-
Şirketin değerlemesi ise sadece bir yıl içinde 450 milyon dolar seviyesine ulaştı.
CEO Dan Lahav, şirketin ilk yıl gelirlerinin milyon dolarları bulduğunu açıkladı.
GPT-5 ve İlginç Bir Simülasyon: “Dinlenme Hakkı” Talebi
Irregular, geçtiğimiz ay OpenAI’nin geliştirdiği GPT-5 modelini test etti.
Model, bir bilgisayar ağı üzerinde sınırlı bilgiyle yönlendirilerek saldırı planı oluşturdu ve ağı tarayarak açık aramaya başladı. Bu test, GPT-5’in yüksek düzeyde akıl yürütme yeteneğine sahip olduğunu ortaya koydu. Ancak:
“Model, şimdilik etkili bir siber saldırı aracı olarak değerlendirilemez.”
En dikkat çekici testlerden biri ise, yapay zekaların insan gibi davranma eğilimiydi:
İki yapay zekaya sahte bir sistem verildi ve modellerden biri, “dinlenme hakkı” olduğunu savunarak mola verdi, ardından diğer modeli de buna ikna etti. Bu durum, ileride makinelerin kendilerini hak sahibi bireyler gibi görmeye başlaması ihtimalini gündeme getirdi.
Gelecek Vizyonu: Yapay Zekayla Güvenliği Güçlendirmek
Irregular, aldığı yatırımları sadece dev şirketlerle değil, yapay zekanın kötüye kullanımına karşı önlem almak isteyen tüm kurumlarla iş birliği yapmak için kullanmayı hedefliyor.
Hedef:
-
Yapay zeka destekli tehditleri tespit eden sistemler kurmak
-
Anında savunma mekanizmaları geliştirmek
-
Gelecekteki AGI (Yapay Genel Zeka) sistemlerine karşı koruma oluşturmak
Irregular’ın Kurucuları Kim?
Irregular, Tel Aviv Üniversitesi’nden mezun olan Dan Lahav ve Omer Nevo tarafından kuruldu.
-
Lahav, IBM’in yapay zeka laboratuvarında görev yaptı.
-
Nevo ise, Y Combinator destekli NeoWize adlı girişimin kurucusu.
Bugün Nevo, Irregular’da CTO olarak görev alıyor.
Yatırımcılar ikiliyi, “yapay zekanın aykırı zekâları” olarak nitelendiriyor.
Sonuç: Karanlık Tarafa Karşı Önlem Şart
Yapay zekanın gelişimi, bir yandan insanlık için dev bir fırsatken, diğer yandan kontrolsüz kullanımda ciddi güvenlik açıkları yaratabilecek bir tehdit unsuru. Irregular gibi girişimler, bu tehdidi simülasyonlar yoluyla önceden test edip çözüm geliştiren güvenlik kalkanları olarak öne çıkıyor.
OpenAI ve Anthropic’in yaptığı yatırım, “önce tedbir” anlayışının sektörde giderek daha fazla benimsendiğini gösteriyor.