İPLERİ YAPAY ZEKANIN ELİNE VERELİM Mİ?..
Christine Moser, Frank den Hond & Dirk Lindebaum
2001: Uzay Macerası filmindeki kötü niyetli bilgisayar HAL'ın koruması gereken astronotlara düşman kesilerek izleyenleri ilk kez korkutmasının üzerinden 50 yılı aşkın zaman geçti. Bu sinematik an, çoğumuzun yapay zekada (YZ) hala korktuğu şeyi yakalıyor:
YZ insanüstü güçler kazanıp bize boyun eğdirebilir. Ancak fütüristik bilimkurgu kabusları hakkında endişelenmek yerine gözlerimizin önünde gelişen eşit derecede endişe verici bir senaryoya uyanmalıyız: Ahlaki inançlarımız da dahil olmak üzere karar verme gücümüzden hiç şüphe duymadan ve isteyerek gitgide daha fazla vazgeçiyoruz. 'Doğru' olduğuna inandığımız şey artık etik bir mesele olmaktan çıkıp matematiksel bir hesaplamanın 'doğru' sonucunun ne olduğundan ibaret hale gelme riskiyle karşı karşıya.
Gündelik hayatta bilgisayarlar daha şimdiden bizim için birçok karar veriyor ve görünürde iyi bir iş çıkarıyor gibi duruyorlar. İş dünyasında YZ sistemleri mali işlemleri yürütüyor ve İK departmanlarının işe başvuranları değerlendirmesine yardımcı oluyor. Özel hayatımızda online alışverişlerimizde kişiselleştirilmiş önerilere bel bağlıyoruz; fiziksel sağlığımızı giyilebilir cihazlarla takip ediyoruz; aydınlatma, havalandırma ve eğlence sistemlerinin yanı sıra ev aletlerini kontrol eden 'akıllı' teknolojilerle donatılmış evlerde yaşıyoruz.
İNSAN YARGISI GERİDE KALIYOR
Ne yazık ki, YZ sistemlerini bugün nasıl kullandığımızı daha yakından incelediğimizde artan güçlerinin genellikle hayırlı sonuçlar verdiğini varsaymakta yanılıyor olabileceğimiz ortaya çıkıyor. Mevcut YZ eleştirisinin çerçevesini hala büyük ölçüde bilim kurgu distopyaları oluşturuyor olsa da, YZ'nin şu anki kullanılma şekli giderek daha tehlikeli hale geliyor. Bunun nedeni, Google ve Alexa'nın yoldan çıkması değil, artık bizim yerimize karar vermesi için makinelere güvenmemiz ve dolayısıyla giderek artan bir biçimde, veriye dayalı hesaplamaları insan yargısı yerine YZ'lere bırakmamız. Bu durum, Academy of Management Learning&Education'da yayımlanan (ve bu yazı için de yararlandığımız) son makalemizde tartıştığımız gibi, ahlakımızı temel, belki de geri döndürülemez şekillerde değiştirme riskini içeriyor.
Yargıda bulunurken kararlarımız, felsefeci John Dewey'nin ifadesiyle, "Tamamlanmamış bir durumu ifasına taşımak" amacıyla, sosyal ve tarihsel bağlamın yanı sıra farklı olası sonuçları dikkate alır. Yargı yalnızca akıl yürütmeye değil, aynı zamanda ve daha da önemlisi, hayal gücü, refleksiyon, inceleme, değerlendirme ve empati gibi kapasitelere dayanır. Bu nedenle asli bir ahlaki boyutu vardır. Buna karşılık algoritmik sistemler, verileri bir işleme, hesaplama ve kural güdümlü rasyonalite birikimi yoluyla işledikten sonra çıktı olarak karar üretir ki biz buna sayma diyoruz.
BOŞLUĞA DİKKAT
Sorun bu sistemlerin verilerimizi işledikten sonra verdiği yanıtların ahlaki adalet ve hakkaniyet standartlarımızı ihlal eden, potansiyel olarak zararlı sonuçlarına bakılmaksızın, tasarlandıkları dar hedeflerle sınırlandırılmış olması. Bunu birçok ABD'li yargıcın ceza verirken kullandığı hataya açık, ırksal olarak önyargılı tahmine dayalı analizde görüyoruz. Ve Hollanda'da vergi makamlarının çocuk yardımı vergi indirimi programının olası hileli kullanımlarını tespit etmek için kusurlu bir YZ sistemine bel bağlaması nedeniyle yaklaşık 40 bin aile haksız yere derin mali zarara ve başka zararlara maruz kaldı. Ardından gelen skandal, Hollanda hükümetini Ocak 2021'de istifaya zorladı.
Bu tür istenmeyen sonuçlar kimseyi şaşırtmamalı. Algoritmalar, bir tanımın belirttiği gibi, "Bir sorunu çözmek için gereken adımların tam sırasını belirten kesin reçetelerden" başka bir şey değildir. Sorunun çözülmesindeki kesinlik ve hız, algoritmanın yanıtını güvenilir bularak kabul etmeyi kolaylaştırır, özellikle de öğrenmek ve daha sonra özerk olarak hareket etmek için tasarlanmış bu tür sistemlerle giderek daha fazla etkileşime girdiğimizde.
Ancak yukarıdaki örneklerin işaret ettiği gibi bir algoritmanın neler yapabileceğine dair şişirilmiş beklentimiz ile fiili yetenekleri arasındaki bu boşluk tehlikeli olabilir. Bilgisayarlar artık bağımsız olarak öğrenebilse, çevresel uyaranlardan çıkarımlarda bulunabilse ve daha sonra öğrendiklerine göre hareket edebilse de bilgisayarların sınırları vardır. Bu sınırların yaygın bir şekilde 'yanlılık' olarak yorumlanması asıl sorunu gözden kaçırmamıza neden oluyor. Çünkü buna yanlılık denmesi, YZ hesaplamasının sınırlarının aşılmasının, YZ'nin sonunda yanlılığı ortadan kaldırarak gerçekliğin eksiksiz ve hakikate uygun bir temsilini oluşturmasının mümkün olduğu anlamına geliyor. Ama durum böyle değil. Sorun daha derinlerde yatıyor.
YZ'LERLE ÇALIŞMANIN DOĞRU YOLU
Makineler bir sayma süreci neticesinde kesin ve tartışmasız doğruymuş gibi duran -esas olarak teknik imgelere dayanan- kararlar alır. Risk, teknolojinin bizi kullanarak oluşturduğu imgeye dayanarak kendimizi ve toplumumuzu şekillendirmemiz. Bu algoritmalara çok fazla güvenirsek, GPS'lerinin kendilerini rıhtım kenarındaki bir sokaktan doğrudan limanın içine sürüklemesine izin veren Fransa'nın Marsilya kentin- deki talihsiz sürücüler gibi, haritayı arazinin kendisi zannetme riskiyle karşı karşıya kalırız.
Örneğin insanların bir sağlık göstergesi olarak nabız hızı, atılan adım, ateş ve uyku saatleri dahil olmak üzere vücut işlevlerini izleyen giyilebilir elektronik cihazları nasıl kullandığını düşünün. Kendinize nasıl hissettiğinizi sormak yerine giyilebilir cihazlarınızı kontrol edebilirsiniz. Cihaz, sağlıklı bir yaşam için genel olarak önerilen minimum sayıda adımı atmadığınız için endişelenmeniz gerektiğini söyleyebilir: Bu birçokları için anlamlı olabilir, ancak hava kalitesi kötüyse veya akciğerleriniz zayıfsa ters tepebilir.
FAYDACI YAKLAŞIM
Bu akıllı makinelerin yadsınamaz faydalarından, makinenin yaptığı soyutlamayı hikayenin bütünü zannetme hatasına düşmeden ve insanlar tarafından verilmesi gereken karmaşık ve sonuçsal kararları YZ'ye devretmeden nasıl istifade edebiliriz?
Sorun, makinelerden ziyade biziz. YZ'ye olan güvenimiz -çeşitli türlerdeki verilerin ve teknik imgelerin toplanmasına dayalı bir karar verme olarak- sayma ile yargıyı birbirine karıştırmamıza neden oluyor. Makineye -bu makineyi programlama ve kontrol etme yeteneğimize- duyduğumuz aşırı inanç, savunulamaz ve hatta belki de geri döndürülemez durumlar üretebilir. Atalarımızın iç organlarda, tarot kartlarında veya gökteki yıldızlarda boş yere aradığı kesinliği biz de YZ'nin kendinden emin yanıtlarında arıyor ve görüyoruz. Bazı gözlemciler –bilim insanları, yöneticiler, politika yapıcılar- sorumlu YZ geliştirme ilkeleri izlemenin YZ sistemlerine etik düşünceleri yerleştirmek için geçerli ve etkili bir yaklaşım olduğuna inanıyor.
Kültürel bir ürün olarak YZ'nin algoritmayı görevlendiren, kodunu yazan ve ardından programı kullanan kişilerin bakış açılarını yansıtmak zorunda olduğunu öne sürdüklerinde onlarla hemfikiriz. Sonuçları çoğunlukla olumlu tutmak için yapılması gereken tek şeyin genel projeye ve programlamasına dikkat edilmesi olduğunu söylediklerinde ise onlarla aynı fikirde değiliz. YZ'ye etik aşılama yeteneğimiz hakkında eleştirel sesler artıyor ve bunlar en başta YZ sistemlerine etik öğretip öğretemeyeceğimize dair temel soruyu gündeme getiriyorlar.
YZ'nin köklerine döndüğümüzde yargılama ve saymanın temellerinin farklı olduğunu ve uzlaştırılamayacağını anlamalıyız. Bu, YZ sistemlerinin asla yargıda bulunamayacağı, yalnızca sayabileceği anlamına gelir. Bu nedenle, YZ'ye etik enjekte etmeye yönelik her türlü girişim, etiğin YZ'nin sayma özelliklerine uyması için kısıtlanacağı, tahrif edileceği ve yoksullaştırılacağı anlamına gelir.
AMAÇ DEĞİL ARAÇ OLMALI
Etik YZ'ye inananlar teknolojiyi bir araç olarak görüyor, (gözlerin görüşünü genişletmek için kullanılan) lensler veya (ellerin becerisini genişletmek için kullanılan) kaşıklar ve tornavidalar gibi esasen insan vücudunun uzantıları olan diğer araçlarla eşit tutuyor. Ama biz buna şüpheyle yaklaşıyoruz. Bize göre, giyilebilir cihazlarda olduğu gibi, kullanıcıyı aracın bir parçası olarak görmek çok önemli: Algoritmaların bizi nasıl şekillendirdiği üzerine uzun uzadıya düşünmemiz gerekiyor. Veri güdümlü saymanın insan yargısı yerine ikamesi gayet temkinli yaklaşılması gereken bir şeyse, sorumlu YZ geliştirme amacının peşinden gitmek, ikameyi ortadan kaldırmamızı sağlamayacak. O halde ne yapabiliriz?
EYLEM (VE EYLEMSİZLİK) ÇAĞRISI İLERİYE DÖNÜK İKİ YOL GÖRÜYORUZ:
1-) İlk olarak, bir eylemsizlik çağrısı yapmak istiyoruz: Sırf teknik olarak mümkün olduğu için otomatikleştirilebilecek her şeyi otomatikleştirmeye çalışmaktan vazgeçmemiz gerekiyor. Bu eğilim, Evgeny Morozov'un teknolojik çözümcülük olarak tanımladığı şey: gerçekten sorun olmayan sorunlara çözümler bulmak. Ebedi gelişme vaadiyle büyülenen teknolojik çözümcülük, verili bir aracı kullanıp kullanmamak, ne zaman, nasıl ve neden kullanmak gerektiği hakkında derinlemesine düşünme yeteneğimizi köreltiyor.
2-) İkinci olarak, bir eylem çağrısı yapıyoruz. Toplum olarak YZ'nin gerçekte ne olduğunu ve onunla nasıl çalışılacağını öğrenmemiz gerekiyor. Spesifik olarak, tıpkı modeller ve haritalarla nasıl çalışacağımızı öğrenmemiz gerektiği gibi, teknik imgelerini nasıl anlayacağımızı ve kullanacağımızı öğrenmemiz gerekiyor. Sadece genel, soyut ve idealleştirilmiş anlamda değil, aynı zamanda tasavvur edildiği her spesifik projede.
Bu tutum uygulamada, yöneticilerin YZ'yi kullanıp kullan- mayacağına, nasıl ve neden kullanacağına duruma göre karar vermesi gerektiği anlamına gelir. Teknolojinin sınır- sız uygulamalarından kaçınmak, YZ'nin sınırlarını ciddiye almak anlamına gelir.
Örneğin algoritmalar daha fazla veriyle beslendiğinde daha büyük bir tahmin gücü kazanır. Ancak zaman ve bağlam aslında sürekli değişirken her zaman statik bir toplum modelini varsayar. Yöneticiler YZ'yi belirli bir proje için yararlı bir araç olarak değerlendirdiğinde, teyakkuz ve şüphe tutumunu geliştiren ve sürdüren yöneticilerde temel bir değer görüyoruz. Çünkü teyakkuz ve şüphe olmadığında, karar verme çerçevemizin yargıdan saymaya geçiş yaptığı anı ıskalayabiliriz. Bu, ahlaki karar verme gücümüzü makinenin saymasına devredeceğimiz anlamına gelir.
YZ'nin ne kadar hızlı geliştiği göz önüne alındığında fazla zamanımız yok. Algoritmik saymanın yanlış güvencesiyle kendimizi uyutmaktansa, hepimiz kendi yargılarımıza göre karar vermeyi yeniden öğrenmeliyiz.
YZ SİSTEMLERİNİ ÖĞRENMEK
Yapay zeka sistemleri, kararlarını felsefeci Vilem Flusser'ın 'teknik imgeler' olarak adlandırdığı şeye dayanır: Pikseller veya baytlardan oluşan soyut örüntüler. Bunlar bilgisayarın üretmek ve işlemek için eğitildiği 'dünyanın' dijital imgeleridir. Teknik imge, bir nesne veya fikir hakkında dijitalleştirilmiş verilerin hesaplanmış dönüşümüdür ve dünyasının bir temsilidir. Ancak tüm temsillerde olduğu gibi eksiktir: Sürekli olanı kesintili yapar ve akışkan olanı statik hale getirir, bu nedenle kişinin onu akıllıca kullanmayı öğrenmesi gerekir.
İki boyutlu bir harita gibi, seçici bir temsildir, hatta belki de yanlış bir temsildir. Harita yapılırken çok boyutlu bir gerçeklik, sınırlı sayıda renk ve sembolle iki boyutlu bir yüzeye sığdırılmaya zorlanarak indirgenir. Birçoğumuz hala bir haritanın nasıl kullanılacağını biliyoruz. Yapay zeka sistemlerinin sorunu, makinenin teknik imgeleri nasıl 'çizdiğini' -neyi vurguladığını, neyi ihmal ettiğini ve teknik imgeye geçişlerde enformasyon parçalarını birbirine nasıl bağladığını- tam olarak anlayamamız. istatistikçi George Box'ın bir zamanlar belirttiği gibi, "Bütün modeller yanlıştır, ancak bazıları kullanışlıdır." Biz de buna bir ekleme yapıyoruz:
"Bir modelin yanlışlığının 'nasıl'ını kavrayamıyorsak, model sadece kullanışsız olmakla kalmaz, onu kullanmak tehlikeli de olabilir." Bunun nedeni, teknik bir imgeye dayalı saymanın asla hakikati tam olarak ortaya koyamamasıdır, çünkü bunun için yapılmamıştır.
………
Christine Moser, Hollanda'daki Vrije Univer- siteit Amsterdam'da organizasyon teorisi doçenti.
Frank den Hond, Finlandiya'daki Hanken Ekonomi Okulu'nda Ehrnrooth Yönetim ve Organizasyon Profesörü, ayrıca Vrije Universiteit Amsterdam'la bağlantılı.
Dirk Lindebaum, Grenoble Ecole de Management'ta organizasyon ve yönetim alanında kıdemli profesör.