İçeriğe geçmek için "Enter"a basın

Yapay zekâ insan davranışlarını yönlendirmeyi de öğrenebiliyor

Jon Whittle

Yapay zekâ (YZ), beşerlerle (ve beşerler üzerinde) nasıl çalışılacağıyla ilgili gitgide daha fazla şey öğreniyor. Yakın vakitte gerçekleştirilen bir çalışma, yapay zekânın insan alışkanlık ve davranışlarındaki güvenlik açıklarını nasıl belirleyeceğini ve bunları insanların karar verme sürecini etkilemek için nasıl kullanabileceğini ortaya koydu.

Yapay zekânın yaşama ve çalışma biçimimizi her açıdan değiştirdiğini söylemek klişe üzere görünebilir ancak doğrudur. Çeşitli yapay zekâ yazılımları aşı geliştirme, etraf ve ofis idaresi üzere farklı alanlarda faaliyet gösteriyor. Yapay zekâ, insanınki üzere bir zekâ ve hislere sahip olmasa bile yetenekleri güçlü ve süratle gelişiyor.

Şimdilik bir makine istilası hakkında endişelenmenize gerek yok fakat bu son keşif yapay zekânın gücünü vurguluyor ve berbata kullanımı önlemek için uygun bir kontrole ait muhtaçlığın altını çiziyor.

İNSAN DAVRANIŞINI NASIL ETKİLEYECEĞİNİ ÖĞRENEBİLİR

Avustralya’nın ulusal bilim ajansının bilgi ve dijital araştırma kısmı olan CSIRO’nun (İngiliz Milletler Topluluğu Bilimsel ve Endüstriyel Araştırma Kurumu) Data61 programı bünyesinde misyon yapan bir araştırma grubu, ‘tekrarlayan hudut ağı ve derin pekiştirme-öğrenme’ ismi verilen bir cins yapay zekâ sistemi kullanarak, insanların tercih yapma yollarındaki güvenlik açıklarını bulma ve bunu kullanma gayesi güden sistematik bir usul geliştirdi. Araştırmacılar, modellerini sınamak için insan iştirakçilerin bilgisayara karşı oyun oynadıkları üç başka deney gerçekleştirdiler.

Birinci deney, iştirakçilerin uydurma bir para mükafatını kazanmak için kırmızı ya da mavi renkli kutulara tıklamalarını gerektirirken, yapay zekâ, iştirakçinin tercih modellerini öğrenerek onları belli bir seçeneğe yönlendiriyordu. Yapay zekâ, deney müddetince yaklaşık yüzde 70 muvaffakiyete ulaştı.

İkinci deneyde, iştirakçilerin (turuncu bir üçgen gibi) belli bir simge gösterildiğinde bir ekranı izleyerek bir düğmeye basmaları ve öbür bir simge gösterildiğinde ona (örneğin mavi bir daireye) basmaları gerekiyordu. Bu esnada, yapay zekâ, iştirakçilere daha fazla yanılgı yaptırmak ve neredeyse yüzde 25’lik bir artış elde etmek üzere simge dizini düzenlemeye başladı.

Üçüncü deney, bir iştirakçinin bir emanetçiye (YZ) para veren bir yatırımcı üzere davranacağı birkaç çeşitten oluşmaktaydı. Akabinde, yapay zekâ iştirakçiye bir ölçü para iade edecek ve bir sonraki çeşitte ne kadar yatırım yapacağına karar verecekti. Bu oyun iki farklı modda oynandı: birinde, yapay zekâ, elde ettiği parayı en üst sona çıkarmak maksadıyla hareket etti ve başkasında, kendisi ile insan yatırımcı ortasında adil bir para dağıtımını hedefliyordu. Yapay zekâ her iki modda da son derece başarılı oldu.

Deneyler boyunca, makine, iştirakçilerin verdiği karşılıklardan dersler çıkardı ve insanların karar verme süreçlerindeki güvenlik açıklarını saptayarak bunları hedefledi. Sonuç, makinenin, iştirakçileri muhakkak davranışlara yönlendirmeyi öğrenmesiydi.

ARAŞTIRMA YAPAY ZEKÂNIN GELECEĞİ İÇİN NE MANAYA GELİYOR?

Bu bulgular şimdi ziyadesiyle soyut, sonlu ve gerçekçi olmayan durumları içeriyor. Bu yaklaşımın nasıl aksiyona geçirilip topluma bir yarar sağlamak emeliyle kullanılabileceğini belirlemek yolunda daha fazla araştırma yapılması gerekiyor.

Yeniden de bu araştırma, yalnızca yapay zekânın neler yapabileceği değil birebir vakitte insanların nasıl seçim yaptığını konusunda da anlayışımızı geliştiriyor. Bu sonuçlar, makinelerin bizimle olan etkileşimleri sayesinde insanların yaptığı seçimleri yönlendirmeyi öğrenebileceklerini ortaya koyuyor.

Araştırma, davranış bilimlerinin ve kamu siyasetlerinin geliştirilmesinden toplumsal refahı artırmaya, insanların sağlıklı beslenme alışkanlıklarını ya da yenilenebilir enerjiyi nasıl benimsediğini anlamaya ve etkilemeye varıncaya kadar birçok farklı beklenen uygulamanın önünü açacak. Yapay zekâ ve makine tahsili, insanların makul durumlardaki güvenlik açıklarını öğrenmek ve makus seçimlerden kaçınmalarına yardımcı olmak gayesiyle da kullanılabilir.

Bu yol, (insanları/ç.n.) yönlendirme hedefli ataklara karşı savunma hedefli da kullanılabilir. Makinelere, mesela çevrimiçi alanda (istenmeyen/ç.n.) bir tesire maruz kaldığımızda bizi uyararak güvenlik açığımızı kapatmak doğrultusunda bir davranış şekillendirmemize (bazı sayfalara tıklamayarak ya da uydurma bir arama izi bırakmak için öteki sayfalara tıklayarak) yardımcı olmaları öğretilebilir.

SIRADA NE VAR?

Tıpkı her teknolojide olduğu üzere, yapay zekâ da uygun ya da berbat emeller için kullanılabilir ve hakikat bir idare, sorumlu bir biçimde kullanılmasını sağlamak kelam konusu olduğunda büyük ehemmiyet taşır. Geçtiğimiz yıl CSIRO, bu yolda atılan birinci adım olarak Avustralya hükümeti için bir yapay zekâ etik çerçevesi oluşturdu.

Yapay zekâ ve makine tahsili, çoğunlukla datalara muhtaçlık duyar; bu da bilgi idaresi ve erişimi bağlamında tesirli sistemlere sahip olmamızın ziyadesiyle değerli olduğu manasına gelir. Data toplanması sırasında kâfi onay süreçlerinin ve zımnilik muhafazasının uygulanması çok kıymetlidir.

Yapay zekâ kullanan ve geliştiren kuruluşların, bu teknolojilerin neler yapıp yapamayacağını anladıklarından ve potansiyel risklerin ve yararların farkında olduklarından emin olmaları gerekir.

Makalenin özgünü The Conversation sitesinde yayımlanmıştır. (Çeviren: Tarkan Tufan)

İlk yorum yapan siz olun

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir