Yapay Zeka, Biyoloji Alanında Yeni Yaşam Biçimleri Tasarlamak İçin Kapıları Aralıyor
Yapay zeka (AI) teknolojisi, yazılımdan sanata kadar her alanda büyük bir dönüşüm yaratırken, biyoloji alanında da yeni olanaklar sunmaya devam ediyor. Son zamanlarda yapılan araştırmalar, AI’nin biyoloji alanındaki potansiyelini gözler önüne sererken, bu gücün kontrol edilmesi gerektiğine dair ciddi endişeleri de beraberinde getiriyor.
Stanford Üniversitesi’nden Sam King ve danışmanı Brian Hie liderliğinde yürütülen bir araştırma, AI sayesinde bakteriyofaj adı verilen bakteri yiyen virüsler üreterek bakterileri yok edebildi. Bu virüsler, mevcut türlerden o kadar farklı ki, potansiyel olarak yeni bir tür olarak sınıflandırılabiliyor.
Araştırmacıların amacı, antibiyotik direncinin neden olduğu krize çözüm bulmaktı. King ve ekibi, güvenlik önlemlerini en üst düzeyde tutarak virüsleri tasarladı. AI modellerini, insanları, hayvanları veya bitkileri etkilemeyen virüslerle eğiten ekip, tasarlanan virüslerin tehlikeli patojenleri taklit edip edemeyeceğini test etti. Ekip, bu yöntemin, tehlikeli virüsler üretmenin, geleneksel laboratuvar yöntemlerine göre oldukça zor olduğunu belirtiyor.
Microsoft’un Uyarısı: Güvenlik Önlemleri Yetersiz
Ancak aynı dönemde yapılan başka bir araştırma, Microsoft araştırmacılarının AI’nin mevcut biyogüvenlik önlemlerini kolayca aşabileceğini gösterdi. Science dergisinde yayınlanan bu çalışmada, AI’nin ticari biyogüvenlik tarama sistemlerini kandırabileceği ortaya kondu. Microsoft ekibi, bu güvenlik açıklarını gidermek için yazılım güncellemeleri yapmış olsa da, bu koruma sistemlerinin şu anda sadece belirli uzmanlık gerektiren laboratuvarlarda kullanılabildiğini belirtti.
Bu iki çalışmanın bir araya gelmesi, AI’nin gelecekte insanlar için tehlikeli olabilecek yeni yaşam formları veya biyolojik silahlar tasarlama kapasitesine ulaşabileceği endişelerini artırıyor. Uzmanlar, bu tehlikenin şu an için teorik olduğunu ancak gerçek olma olasılığının göz ardı edilmemesi gerektiğini vurguluyorlar.
Bu durum, AI destekli biyoteknolojik çalışmalarda karşımıza çıkan “çift kullanımlı teknoloji sorunu”nu ön plana çıkarıyor. Yani bir buluşun hem insanlığa fayda sağlayabilecek hem de kötü amaçlarla kullanılabilecek özelliklere sahip olması durumu… Örneğin bir araştırmacı, bir patojenin yayılma şeklini anlamak için genetik bir değişiklik yaparken, bu bilginin kötü niyetli biri tarafından ölümcül bir biyolojik silah geliştirmek için kullanılma riski bulunuyor.
“Hükümetler ve Kurumlar Harekete Geçmeli”
Şu an için AI’nin canlı ve insanlar için zararlı olabilecek bir türü laboratuvar ortamında tek başına tasarlaması mümkün değil. Ancak bu olasılık her geçen gün daha da yaklaşıyor. Bu nedenle bilim insanları, çok katmanlı güvenlik sistemleri, gelişmiş tarama yazılımları ve AI ile biyolojik sentez süreçlerini düzenleyen yeni yasaların acilen oluşturulması gerektiğini savunuyorlar.
2023 tarihli bir ABD başkanlık kararnamesi, AI sistemlerinin “güvenli, tekrarlanabilir ve denetlenebilir” olması gerektiğini vurgularken, İngiltere’de de AI kaynaklı riskleri azaltmak için politikalar geliştiren devlet destekli kurumlar oluşturuluyor.