İnsan Irkının Sonu Mu Geliyor?


Insanligi tehdit eden en buyuk global tehlikenedir?
Soyumuzun aniden tukenmesi gercegiyle karsi karsiya miyiz?
Oxford Universitesi’nin matematik ve felsefe alanlarindaki bilim adamlarindan olusan “Insanligin Gelecegi” adli enstitu bu buyuk tehlikeleri arastiriyor.
Insanligi tehdit eden en buyuk global tehlike nedir?
Soyumuzun aniden tukenmesi gercegiyle karsi karsiya miyiz?
Oxford Universitesi’nin matematik ve felsefe alanlarindaki bilim adamlarindan olussan“Insanligin Gelecegi” adli enstitu bu buyuk tehlikeleri arastiriyor. Yayinladiklari bir tetkik raporunda ise siyasetcilerin cok ciddi onem vermesi gereken dunyayi tehdit eden risklerden bahsediyorlar. Bu risk bu kadar buyukken, gectigimiz sene bu global tehlikelerden daha cok snowboard yapmayla ilgili akademik makaleler yayinlandi.
“Insanligin Gelecegi” enstitusu muduru IsvecliNick Bostrom, insan soyunun tukenecegini tahmin etmenin cok da zor olmadigini soyluyor ve ekliyor “Eger yanilmiyorsak, bu yuzyil insanligin yasadigi son yuzyil olacak.”.


Insanoglu var oldugundan beri boyle soylemler yapiliyor.
Peki bilimadamlarini bu kadar endiselendiren buyuk tehlikeler neler?
Once iyi haberlerden baslayalim :
Salginlar ve dogal hastaliklarin sebep oldugu muazzam sayilarda olumlerin gerceklesme olasiligi cok yuksek fakat Dr. Bostrom insanoglunun bunlardan kolaylikla kurtulabilecegini ve soyunu tuketenin bu durumlar olmayacagini ifade ediyor. Cunku, insan var olusundan beri bircok salgin, kitlik, sel, deprem ve cevre degisimleri gecirmis ve bunlardan kurtulmayi, bir sekilde hayatta kalmayi basarmistir.
Ayrica Dr. Bostrom bu bahsettigimiz yuzyil icinde insanligin soyunun tukenmesinin bir goktasi veya volkanik patlamalar ile olmasinin olasiligini cok, cok dusuk buldugunu belirtiyor. Buna sebep olarak, 20. yuzyilda beklenmedik iki adet dunya savasi ve Ispanyol gribinin ardindan bile insan populasyonunun artisinin yavaslamamis olmasini gosterebiliriz. Dolayisiyla, goktasi veya volkanik patlamalardan ortaya cikacak olumler, soyumuzu tuketmeye yetmeyecektir.
Ucuncu olarak; nukleer savas korkutucu bir yikima sebep olabilir fakat yine de insan soyunu devam ettirecek yeterli sayida insan kurtulacaktir.
Butun bunlar cok rahatlatici; peki nelerden korkmaliyiz?
Dr. Bostrom’a gore turumuzun gelecegini herseyden daha cok tehdit eden: icinde bulundugumuz teknoloji cagi. “Bu teknoloji cagiyla gelen yikimlar daha once basimiza gelmemis turden oldugu icin, genetik kodlamamizda bunlardan kurtulma, hayatta kalma ipuclarimiz maalesef bulunmamakta.”


Kontrol Eksikligi 
Dr. Bostrom ileri ve hizli teknolojinin, mumkun olan sonuclari kontrol edebilme kabiliyetimizi olumsuz yonde etkiledigini dusunuyor. Sentetik biyoloji, nanoteknoloji ve yapay zeka alanlarindaki deneyler ve buluslar gelecegi kasitsiz ve ongorulmez hale getiriyor.
Sentetik biyoloji -biyolojinin muhendislikle tanistigi alan- cok buyuk medikal yararlar saglayacagi sozunu vermisti. Fakat Dr. Bostrom insan biyolojisinin sinirlarini manipule etmenin onceden kestirilemez sonuclar dogurabilecegi ile ilgili endiseler tasiyor.
Nanoteknolojinin (molekul ve atom seviyesine indirgenmis bilim dali) savaslarda kullanilmasi sonucu cok fazla olumcul ve yikici olabileceginin altini cizen Dr. Bostrom, bu teknolojiye sahip ulkelerin gelecekte nukleer savas tehdidinin yaninda nanoteknoloji tehdidi de savuracagini dusunuyor.
Son olarak; yapay zekanin dis dunyayla uyum saglayabilmesi konusundaki korkular (ozellikle bilimkurgu filmlerinin de etkisi ile) yillardir suruyor. “Zeka”ya sahip bir bilgisayarin endustri, tip, tarim veya ekonomi yonetimi alanlarinda katacagi gucun tartisilmaz bir gercek olmasinin yaninda yapay zekalarin davranis ve tutumlarinin onceden tahmin edilemez olmasi cok buyuk tehlikelere yol acabilir.
Kasitsiz Sonuclar 
Simdi bahsedeceklerimiz az oncekiler gibi soyut dusunceler degil, bilimsel kanitlarla desteklenmis sonuclardir.
“Insanligin Gelecegi” enstitusunden genetikciSean O’Heigeartaigh stok market ticaretinde kullanilan algoritmalar ile bir analoji ciziyor. Bu matematiksel dizilimler ekonomi ve insanlik icin hizli ve yikici bir sonu isaret ediyor.
Biyolojiden soz acildiginda ise, iyi niyetle baslayan genetik degistirme, genetik parcalari ayirip birlestirme gibi deneylerin kotu niyetle baska yonlere cok kolay kaydirilabilecegini soyluyor ve bilimadamlari icin su yorumda bulunuyor; “Cogu zaman kotu amaclar icin kullanilabilecek seyler icat ettiklerinin farkina bile varmazlar.”. Fakat baska bir alana kayan ya da yonlendirilen icat veya urunlerin zarar verici ve kotu niyetli kullanimi her zaman risk dahilindedir.
Dr. O’Heigeartaigh; “Zaman icinde yanlis yonlere kayabilecek seyler gelistiriyoruz. Her yeni, guclu teknoloji icat edildiginde ne bildigimizden cok, neyi tam olarak bilmedigimize odaklanmali ve ona gore dikkatli olmaliyiz.” diyor ve guluyor, “Bilimadami olmak korku dolu bir kariyer degil, ciddi olunmasi ve sonuclarinin iyi tahlil edilmesi gereken bir meslek alani. Bilim; pozitif farklilik yaratabileceginiz en onemli yollardan bir tanesi.”
Zincirleme Reaksiyon
Enstitunun bilimadamlari, bilgisayarlarin bir sonraki nesilde daha guclu bilgisayar jenerasyonu ortaya cikaracagini ve bunun bu sekilde guclenerek devam edecegini dusunuyorlar. Tabii ki bu makinalar bir anda -bilimkurgu filmlerinde oldugu gibi- dunyayi yakip yikmaya baslamayacaklar. Ancak arastirmaciDaniel Dewey “zeka patlamasi” diye adlandirdigi bu durumu, bilgisayarlarin her gecen gun artan gucuyle her jenerasyonda daha az ongorulebilir ve kontrol edilebilir olduklari seklinde acikliyor.
Daha once Google’da calismis, Amerika’nin ‘yapay super-zeka’ alaninda eksper Mr. Dewey ifade ediyor; “Gunumuzde yapay zeka teknolojisi her gecen gun daha kucuk telefonlar, bilgisayarlar icine sigdiriliyor. Teknoloji gelistikce, boyutlar kuculuyor.”
Biyoteknoloji ve nanoteknoloji konusunda ise “Bu tarz teknolojilerle, kucuk baslangiclar yaparak baslarsiniz daha sonra zincirleme reaksiyon etkisi gibi kendinizi bir anda cok buyuk, Dunya’daki herkesi etkileyen projelerin icinde bulursunuz.” diyor.
Oxford’daki “Insanligin Gelecegi” projesi cok buyuk global sorunlari inceleyen bir arastirma alani. Enstitu, Oxford Martin School tarafindan global tehditleri arastirmalari icin farkli dallardaki bircok akademisyeni bir araya getirerek kuruluyor. Simdilerde, ayni uygulamayi yururluge sokmak icin Cambridge Universitesi de calismalara baslamis durumda.
Hata Veya Teror
Royal Society’nin muduru ve gokbilimci Lord Rees ; “Dunya tarihinde insanlik icin en buyuk tehdide sahip ilk yuzyila girmis bulunmaktayiz.”diyor. Insanlar, ucak seyahatleri, yiyecek guvenligi gibi kisisel hayati riskleri dusunmektense dunyayi tehdit eden tehlikelerin farkina varmalilar.
Sentetik biyoloji hakkinda Lord Rees su aciklamayi yapiyor: “Her yeni teknolojinin iyi yonleri elbette ki vardir. Fakat unutmamak gerekir ki her yeni teknoloji beraberinde riskler de getirir.”.
Tarim ve tip icin yeni organizmalar yaratmanin ongorulemez bir ekolojik yan etkiye sebep olabilecegini soyleyen Rees teknolojiye bagli olan bu toplumda en buyuk endisesinin sosyal kirilganlik oldugunu da sozlerine ekliyor. “Daha cok seyahat edebildigimiz, herseyden isik hiziyla haberdar olabildigimiz, daha interaktif bir Dunya’da yasiyoruz artik. Ve buna bagli olarak en kucuk bir hata veya yaniltmacanin gunumuz Dunya’sinda bir terore varabilecegi gunlerdeyiz.”
Yani korktugumuz kiyamet gunu yaklasiyor, oyle mi?
Hayir, bu bir anda herseyin kotuye gittigi ucuz bir bilimkurgu filmi degil. Bu bir surec.
Dr. Bostrom, buyuk bir hizla ilerleyen teknolojinin icerigini anlayabilme konusunda bosluklar oldugunu soyluyor. “Ahlak acisindan bebek, teknoloji konusunda ise yetiskin seviyedeyiz. Ve butun bunlarin sonucunda olusan riskten ise, insanlarin haberi yok.”. Dr. Bostrom ustune basa basa sunu da ekliyor, “Biz hazir olsak da olmasak da, degisim sureci bu yuzyilla beraber baslamis bulunmakta.”
“Insanlik tarihinde onemli bir gecis noktasindayiz. Insanlarin icinde bulundugu durum ve hersey degisecek. Bu bizim sonumuz da olabilir, biyolojimizi kontrol altina almayi basarabilirsek bu degisim bizim transformasyonumuz da olabilir. 
Bu bilim kurgu degil, dini doktrin de degil.
Bunu ciddiye almaktan baska hicbir yolumuz yok.”

Hiç yorum yok

Blogger tarafından desteklenmektedir.