enflasyonemeklilikötvdövizakpchpmhp
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak

Google ve Oxford araştırmacıları: Yapay Zeka insanları ortadan kaldırabilir

Yıllarca süren geliştirmeden sonra, Yapay Zeka (AI) artık otomobilleri halka açık yollarda sürüyor, sorgulanan beşerler için değerlendirmeler …

Google ve Oxford araştırmacıları: Yapay Zeka insanları ortadan kaldırabilir
14.09.2022 19:25
0
A+
A-

Yıllarca süren geliştirmeden sonra, Yapay Zeka (AI) artık otomobilleri halka açık yollarda sürüyor, sorgulanan beşerler için değerlendirmeler yapıyor ve ödüllü sanat yapıtları üretiyor.

Bu alanda uzun müddettir devam eden bir soru, üstün zeki bir yapay zekanın berbatlığı yayıp, insanlığı ortadan kaldırıp kaldıramayacağı.

Oxford Üniversitesi ve Google Deepmind’den araştırmacılar yeni araştırmalarda bunun “muhtemel” olduğu sonucuna vardı.

Makalenin başyazarı Michael Cohen, Twitter’da makaleyi açıkladığı tweet zincirinde, “Varoluşsal bir felaket yalnızca mümkün değil, tıpkı vakitte muhtemel” tabirlerini kullandı.

ÖDÜL CEZA DÜZENEĞİNDEN YOLA ÇIKILDI

Makalede yapay zekanın eğitiminde kullanılan “pekiştirmeli öğrenme” modeline odaklanıldı.

Bu yaklaşım yapay zekaya muhakkak bir gaye doğrultusunda ne yapılması gerektiğini öğretmeyi hedefliyor.

Pekiştirmeli öğrenmede “etken” ismi verilen makine, karşılaştığı durumlara reaksiyon veriyor ve hakikat reaksiyon verdiğinde bir ödül puanı alıyor.

Küçük çocukların ödül/ceza usulüyle toplumsal maharetler edinme sürecini andıran bu usulde yapay zeka, aldığı ödül puanını hep azamiye çıkarmak için çalışıyor.

HİLE İLE TEHDİTLERİ ORTADAN KALDIRABİLİR

Modelin risklerine dikkat çekilen makalede, “Örneğin, bir şeyin bizi tatmin ettiğini belirtmek için yapay zekaya büyük bir ödül verdik. Bizi tatmin eden şeyin aslında bu mükafatın gönderilmesi olduğunu varsayabilir. Hiçbir müşahede bunu yalanlayamaz” sözleri yer aldı.

Yazarlar, gelecekte yeni formlara kavuşacak ve daha da gelişecek yapay zekanın verilen gayeye ulaşmadan mükafatı elde edebilmek için yeni formüller geliştirebileceğini ve hileye başvurabileceğini de belirtti.

Diğer bir deyişle yapay zeka, mükafatı üzerinde denetim sağlamak için “potansiyel tehditleri ortadan kaldırmak” isteyebilir.

Bunun sonucunda insanlara ziyan vermesi de olası.

Bilim,Teknoloji,Haber,Yapay Zeka

https://www.ntv.com.tr/teknoloji/google-ve-oxford-arastirmacilari-yapay-zeka-insanlari-ortadan-kaldirabilir,waCMTC-Ra0KmyyM-oViyig

ETİKETLER: ,
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.