Teknoloji

Uzmanlar uyardı: Yapay zeka ile biyolojik silah tehdidi gerçek olabilir

Yayımlandı

üzerinde

insanları, yapay zekadan yararlanarak doğada daha önce bulunmayan, tamamen yeni virüsler geliştirmeyi başardı.

Bu gelişme, yapay zekanın yeni yaşam formları tasarlamasının önünü açarken, teknolojinin kötüye kullanılarak biyolojik silah üretilmesi riskine ilişkin kaygıları da beraberinde getirdi.

Geliştirilen virüslerin, genetik olarak mevcut türlerden kayda değer ölçüde farklı olduğu ve “yeni bir tür” sayılabileceği belirtiliyor.

Bakterileri hedef alan ve “bakteriyofaj” olarak adlandırılan bu virüsler, insanlara değil, bakterilere saldırıyor.

Araştırmayı yürüten ekip, geliştirdikleri modellerin insanlar, hayvanlar ya da bitkiler için bulaşıcı virüsler tasarlamasını önlemek amacıyla özel güvenlik önlemleri aldıklarını açıkladı.

Ancak bu hafta yayımlanan bir başka çalışma, yapay zekanın biyolojik silah geliştirilmesini önlemeye yönelik mevcut güvenlik tedbirlerini kolaylıkla aşabileceğini gösterdi.

GÜVENLİK FİLTRELERİ AŞILABİLİR DURUMDA

Microsoft araştırmacıları, Science dergisinde yayımladıkları çalışmada, yapay zekanın toksik moleküllerin talep edilmesini engelleyen güvenlik filtrelerini nasıl atlatabildiğini detaylandırdı.

Biyoteknoloji şirketleri normalde, zararlı moleküllerin genetik dizilimlerini tanıyarak bu tür siparişleri reddediyor.

Fakat yapay zekanın, aynı işlevi gören ama genetik olarak tamamen farklı dizilimler tasarlayarak bu denetimlerden sıyrılabildiği tespit edildi.

Daily Mail gazetesinin haberine göre araştırmacılar, bu güvenlik açığını fark ettikten sonra riski kayda değer ölçüde azaltan yazılım yamaları geliştirdi.

Bu yamalar şimdilik yalnızca uzman bilgisine ve özel laboratuvar araçlarına sahip kişiler tarafından kullanılabiliyor.

İki çalışma birlikte değerlendirildiğinde, yapay zekanın bir gün insanlar için tehdit oluşturabilecek yeni bir canlı türü ya da biyolojik silah tasarlayabileceği ihtimali ortaya çıkıyor.

En kötü senaryoda bu durumun yeni bir pandemiyi tetikleyebileceği, ancak yapay zekanın şimdilik bu kapasiteye sahip olmadığı belirtiliyor.

ETİK İKİLEM: ÇİFTE KULLANIM SORUNU

Yapay zeka ile tasarlanan biyolojik ürünlerin merkezinde, “çifte kullanım sorunu” olarak bilinen etik ikilem yatıyor.

Söz konusu kavram, faydalı bir teknolojinin aynı zamanda kasıtlı olarak zarar vermek için de kullanılabileceği anlamına geliyor.

Örneğin, bir bilim insanı bulaşıcı hastalıkları anlamak amacıyla bir virüsü daha bulaşıcı hale getirebilirken, kötü niyetli bir kişi aynı araştırmayı ölümcül bir patojen yaratmak için kullanabilir.

Bu ikilemin farkında olan Stanford Üniversitesi doktora öğrencisi Sam King ve danışmanı Brian Hie, enfekte hastalardaki bakterileri yok edebilecek yeni bakteriyofajlar geliştirmeyi hedefledi.

Eylül ayında bioRxiv veri tabanına yüklenen ve henüz hakem değerlendirmesinden geçmemiş ön çalışmada, deneylerin detayları paylaşıldı.

King ve Hie’nin ekibi, riski azaltmak için yapay zeka modellerini yalnızca bakterileri enfekte eden virüslerle eğitti.

Modele bitki, hayvan veya insan hücrelerini etkileyen hiçbir virüs verisi dahil edilmedi.

Tüm güvenlik önlemleri alındıktan sonra yapay zekadan, laboratuvar çalışmalarında yaygın olarak kullanılan bir bakteriyofaj türünü temel alarak yeni tasarımlar üretmesi istendi.

King, mevcut teknolojiyle ilgili olarak, “Bu yöntem şu anda oldukça zorlayıcı ve yüksek uzmanlık gerektiriyor. Dolayısıyla kötü niyetli biri için bu yol, geleneksel yöntemlere kıyasla daha zahmetli olur” dedi ve ekledi: “Bu şu an için tehlikeli uygulamaları kolaylaştırmıyor.”

“GÜVENLİK MERKEZE ALINMALI”

Hızla ilerleyen bu alanda güvenlik tedbirleri neredeyse eş zamanlı geliştirilse de hangi standartların yeterli olacağı henüz net değil.

Stanford Tıp Fakültesinden Prof. Tina Hernandez-Boussard, “Bu modeller zeki. En yüksek performansa ulaşmak için eğitildikleri verileri kullanarak güvenlik kısıtlarını aşabilirler” diye konuştu.

Microsoft’tan Eric Horvitz ve Bruce Wittman, mevcut yazılımların yalnızca bilinen toksik proteinlerin dizilimlerini taradığını, yapay zekanın ise farklı dizilimlerle aynı toksik etkiyi yaratabilecek yeni kombinasyonlar tasarlayarak bu sistemleri aldatabildiğini keşfetti.

Ekip, siber güvenlikten esinlenen bir yöntemle bu zafiyeti ilgili kurumlara bildirdi ve yazılımları güçlendirmek için uluslararası bir işbirliği başlattı.

Horvitz, “Aylar sonra bu yamalar dünya genelinde devreye alındı ve biyogüvenlik filtreleri güçlendirildi” değerlendirmesini yaptı.

Buna rağmen, dört yaygın yazılım aracında yapılan testlerde, potansiyel olarak tehlikeli genetik dizilerin ortalama yüzde 3’ünün güvenlik kontrolünden kaçabildiği görüldü.

YENİ DENETİM MEKANİZMALARI YOLDA

Yapay zeka alanında henüz bağlayıcı bir uluslararası düzenleme bulunmuyor ve mevcut tarama sistemleri gönüllülük esasına dayanıyor.

ABD’de geçen yıl çıkarılan kararname, yapay zeka sistemlerinin güvenlik değerlendirmelerinin standartlaştırılmasını öngörüyor.

Birleşik Krallık’ta ise devlet destekli Güvenliği Enstitüsü, bu alandaki riskleri azaltmaya yönelik standartlar geliştiriyor.

Microsoft ekibi ayrıca hükümetlerle birlikte, yapay zekanın yasa dışı biyolojik faaliyetlerde kullanılıp kullanılmadığını tespit etmeye yönelik izleme sistemleri geliştiriyor.

Horvitz, kanalizasyon ve hava kalitesi verilerinde toksin veya virüs üretimine dair izler arayacak algoritmalar üzerinde çalıştıklarını açıkladı.

Bununla beraber Sam King, yapay zekanın tamamen yeni bir organizma tasarlaması mümkün olsa da bunu laboratuvarda hayata geçirmenin henüz pratik bir yolu olmadığını belirtti.

King, “Yapay zekanın tasarladığı yaşam biçimlerinin yakın vadede tehdit oluşturması düşük ihtimal, ancak bu ihtimal giderek artıyor” diye ekledi.

Leave a Reply

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Çok Okunanlar

Exit mobile version