Yapay zekâda yetki tek elde mi toplanmak isteniyor?

Uluslararası otoriteler, yapay zekânın taşıdığı birçok olumlu potansiyelinin yanında, tehdit yahut tehlike potansiyelinin de göz arkası edilmemesi gerektiğini konusunda hemfikir. Yapay zekânın son birkaç yılda gösterdiği fevkalâde gelişim ve kullanıldığı alanlardaki sonuçlara dikkat çeken Dr. Öğr. Üyesi Nuri Bingöl, yapay zekâ teknolojisindeki gelişimin birtakım düzenleme ve kontrollere tabi olması gerektiğini söylüyor. Fikir ayrılıklarının ‘bu kontrolün nasıl ve kimler tarafından uygulanacağı’ konusunda olduğunu belirten Bingöl, bu yetkinin tek elde toplanması olarak düşünülmemesi gerektiğine vurgu yapıyor.

Üsküdar Üniversitesi Yapay Zekâ Mühendisliği Yüksek Lisans Programı Anabilim Kısmı Lideri Dr. Öğr. Üyesi Nuri Bingöl, süratle gelişen yapay zekâ teknolojilerinin ulusal ve global manada nasıl denetlenmesi, ne cins sonların getirilmesi gerektiği ve tüm bunların önünde ne üzere maniler olduğuna dair açıklamalarda bulundu.

 

Bilgi birikimini, yapay zekânın yararını maksimize edecek formda kullanmanın tam zamanı

Yapay zekânın taşıdığı birçok olumlu potansiyelinin yanında, tehdit yahut tehlike potansiyelinin de göz arkası edilmemesinin kıymetli olduğunu belirten Dr. Öğr. Üyesi Nuri Bingöl, “İnsanlık bu mevzuda deneyimli ve bu tecrübeyi süratlice pratiklere çevirmeli. Daha evvelki devrimsel teknolojik gelişmelerin yol açtığı olumlu yahut olumsuz sonuçlardan çok şey öğrendik. Bu bilgi birikimini, yapay zekânın yararını maksimize edecek formda kullanmanın tam vaktidir.” dedi.

 

Yapay zekâ üzerindeki kontrolün nasıl uygulanacağı konusunda fikir ayrılıkları var

Düşünceleri ile bugünün toplumlarına taraf veren birçok otorite ve hatta yapay zekânın gelişmesinde kıymetli rol oynayan insanların dahi, emsal niyetleri paylaştıklarını tabir eden Bingöl, “Yapay zekânın son birkaç yılda gösterdiği harikulâde gelişim ve kullanıldığı alanlardaki sonuçlar gösteriyor ki, yapay zekâ teknolojisindeki gelişim, kimi düzenleme ve kontrollere tabi olmalı. Fikir ayrılıkları bu hususta değil, ‘bu kontrolün nasıl uygulanacağı’ üzerinedir.” formunda konuştu.

 

Hangi etabının denetleneceğine nazaran önlemler değişiyor

Tartışmaların ve fikir ayrılıklarının, kontrolün nasıl uygulanacağı noktasında ağırlaşmasının sebeplerine de değinen Bingöl, bu sebepleri şöyle açıkladı:

“Yapay zekâ teknolojileri dayanılmaz bir güçtür ve bu gücün yalnızca bir kurumun elinde toplanmasının getireceği problemler var. Bu teknolojiler tabiatı gereği iki kademeli bir eserdir. Birincisi yapay zekânın kapasitesinin geliştirilmesi, ikincisi de muhakkak bir hedef için kullanılması. Bu iki basamaktan hangisi kontrole tabi tutulmalı yahut sonlandırılmalı? Hangi etabı daha fazla potansiyel tehdit yahut tehlike içeriyor? Doğal olarak bu sorunun cevabına nazaran alınabilecek önlemler de değişiyor. ‘Nasıl uygulanacağı’ sorusu farklı bir mana kazanıyor.”

 

Teknoloji üzerinde çok bir kontrol ve sonlandırma, yararlarının azalmasına yol açar

Yapay zekânın kontrol ve sonlandırmasının hangi seviyede olacağı konusuna da dikkat çeken Bingöl, “Unutmamak gerekir ki teknoloji üzerinde çok bir kontrol ve sonlandırma, o teknolojinin gelişmesinden doğan yararların da azalmasına yol açar. Halbuki insanlığın önünde büyük varoluşsal sorunlar var ve yapay zekâ teknolojileri bu bahislerde büyük potansiyel taşıyor.” dedi.

Bingöl, yapay zekâ konusunun kıymetli isimlerinden Andrew Ng’nin, ‘İnsanlığın büyük bir kısmı için varoluşsal riskleri düşündüğümde: Bir sonraki salgın, iklim değişikliği ve sonucunda kitlesel nüfus azalması, diğer bir asteroit tehlikesi… Yapay zekâ, çözümlerimizin değerli bir kesimi olacak. Münasebetiyle, insanlığın önündeki bin yıl boyunca hayatta kalmasını ve gelişmesini istiyorsak, yapay zekânın daha süratli çalışmasını sağlayalım, daha yavaş değil.’ formundaki paylaşımının dikkat cazibeli olduğunu da kelamlarına ekledi.

 

Denetim ve sonlandırmalar etik boyutu da kapsamalı

Yapay zekânın kontrol ve sonlandırmalarının, yalnızca tehdit ve tehlike boyutu üzerinde tesirli olmaması gerektiğini belirten Bingöl, “Bunlar kadar değerli ‘etik’ boyutu da var. Çok küçük kapasiteli yapay zekâ ürünleriyle bile, birtakım ferdî ihlal ve tehditler yaratabilir. Bilhassa bir kişi, kurum yahut bir insan topluluğu amaç olarak alınabilir.  Dolayısı ile kontrol ve sonlandırma muhtaçlığını yalnızca çok büyük kapasiteli yapay zekâ teknolojisi üreten yahut kullanan taraflar olarak düşünmemek gerekiyor. Kontrol ve sonlandırmalar hem büyük boyutlu hem de yerine nazaran küçük boyutlu yapay zekâ kapasitesi için geçerli olabilmeli.” biçiminde konuştu.

 

Kişisel bilgi güvenliği ve etik konusu için atılan adımlar, kontrol ve sonlandırmalar üzerine bir temel oluşturabilir 

Denetim ve sonlandırmaların nasıl uygulanacağı konusunun standartlaşması ve yönetmeliklerinin oluşmasının vakit alacak üzere göründüğünü söz eden Bingöl, “Bu alanda tartışma ve fikirler gelişmeye devam ederken, Avrupa Birliği Genel Bilgi Müdafaa Tüzüğü veya ülkemizde uygulanan haliyle Kişisel Dataların Korunması Kanunu gibi geçmiş deneyimlerin içine, yapay zekâ ile ilgili birtakım pratik yönetmelikleri ve düzenlemeleri bugünden koymak ve bir yönetimsel çerçeve oluşturmak kıymetli. Zira şahsî data güvenliği ve etik konusu için atılan adımlar, yapay zekânın kontrol ve sonlandırmaları üzerine bir fikir ve pratik temeli oluşturabilir. Datanın hangi kaynaktan ne büyüklükte ve ne gayeyle kullanıldığı, nasıl korunduğu ve paylaşıldığı üzerine inşa edilmiş bu mevzuatlar yapay zekânın kapasite geliştirme kademesi için kıymetli bir ögedir ve en azından bu açıdan bir denetim temeli oluşturabilir.” formunda konuştu.

 

‘Bilişim Hukuku’ ögelerinin dikkatini bu bahse çekmeliyiz

Diğer bir ögenin ise bilgi süreç gücü ve güç tüketiminin yönetilmesi olduğunu aktaran Bingöl, “Bu alandaki kontrol ve sonlandırmalar ‘Blok Zincir (Blockchain)’ teknolojisinin oluşturduğu kimi sorunlara tahlil olabilmiş ve teknolojinin daha müspet tarafa yönelmesine katkı sağlamıştır. Emsal mevzuatlar, dolaylı olarak yapay zekâ teknolojisinin üzerinde de tesirli olabilir.” dedi.

Öncelikle yapay zekâ tarafından üretilen geçersiz içeriklerin tespit edilmesi ve yaptırımların neler olması gerektiğinin kararlaştırılması gerektiğine dikkat çeken Bingöl, “Yalnızca düzmece bilgi barındıran değil, gerçek bilgi barındıran fakat bunu bir kümesi manipüle etmek yahut bir kümeye çıkar devşirmek için yapay zekâ tarafından oluşturulan içeriklerin de önüne geçilmeli. Toplanan kullanıcı bilgileri sayesinde bireyleri hedefleyen yapay zekâ tarafından oluşturulmuş her türlü siyasi ve ticari kampanya sonlandırılmalı ki özgür irade özgür kalmaya devam etsin. Vakit kaybetmeden yapay zekâ odaklı bakış açısı ile ‘Veriye Erişim ve Bilgi Süreç Gücünün Kullanımı’ kavramlarının, mevcut yasa ve yönetmelikler ile bağlantısını kurmaya başlamalıyız. Bilhassa ‘Bilişim Hukuku’ ögelerinin dikkatini bu bahse çekmeliyiz.” halinde konuştu.

 

Merkezi bir irtibat ve kontrol oluşturmak neredeyse imkânsız 

İnsanların kolay kolay ulaşabileceği ve ulaştığında hem kendi hem de diğerlerinin hayatlarına tesir edebileceği bir teknolojinin denetlenmesi gerektiğine vurgu yapan Dr. Öğr. Üyesi Nuri Bingöl, “Ancak sırf bir bilgisayar ve biraz matematik bilgisi ile oluşturulabilen yapay zekâ modellerinin tamamı üzerinde bir kontrol sistemi kurulması pek de mümkün gözükmüyor.” dedi.

Yapay zekâ teknolojisinin bir kontrol ve sonlandırmaya tabi olmasının, kaçınılmaz olarak bu yetkinin tek elde toplanması olarak düşünülmemesi gerektiğini belirten Bingöl, kelamlarını şöyle tamamladı:

“Hatta günümüz teknolojileri merkeziyetsiz alt yapılar üzerine odaklanıyor ve bu alanda birçok gelişme yaşanıyor. Kaldı ki yapay zekâ teknolojilerinin bir kere üretildikten sonra, rastgele bir merkeze hatta internete bağlı olmadan gömülü sistemler olarak çalışabilmesi, en azından kullanım basamağı için bir özgürlük sağlıyor. Bu kabiliyete sahip yapay zekâ sistemleri için, günümüzde her alanda görüldüğünden, merkezi bir irtibat ve kontrol oluşturmak neredeyse imkânsız.”

 

Kaynak: (BYZHA) Beyaz Haber Ajansı

Benzer Videolar