Değişen çağ ve yapay zeka: Çoğu meslek azalacak
7 mins read

Değişen çağ ve yapay zeka: Çoğu meslek azalacak

İstanbul Teknik Üniversitesi (İTÜ) Siber Güvenlik Meslek Yüksekokulu Müdürü Prof. Dr. Kemal Bıçakcı, gelinen teknoloji itibarıyla gündelik rutin işlerden, üretimde verimliliğinin artırılmasına, enerji tasarrufundan, sağlık ve güvenlik gibi birçok alana kadar kolaylık sağlayan yapay zekadaki son gelişmeler ve bu teknolojinin kötüye kullanımına ilişkin değerlendirmelerde bulundu.

Yapay zeka çalışmalarında büyük ilerlemeler olduğuna dikkati çeken Bıçakcı, son iki yılda “ChatGPT”nin çıkmasının ve “Devin” isimli dünyanın ilk yapay zeka yazılım mühendisinin duyurulmasının önemli gelişmeler olduğunu söyledi.

‘ÇOĞU MESLEK YOK OLMAYACAK AMA SAYILARI AZALACAK’

Yaşanan gelişmeler karşısında gençlerin işsizlik problemini düşünerek endişeye kapılmalarının yerinde olduğunu anlatan Bıçakçı, geçmiş teknolojik gelişmelerle yapay zekanın kıyaslanmasını ise doğru bulmadığını belirterek, şöyle devam etti:

“Daha önceki hesap makineleri, bilgisayarlar, otomasyon araçları, internet gibi bilimsel gelişmelere bakarak, ‘Bu yeni gelişmeler çok da işsizlik sonucunu doğurmamıştı.’ gibi bir anlayış olabilir. Ancak yapay zeka hepsinden farklı, bambaşka bir teknoloji. Bizden daha iyi yapabildiği pek çok şey var. En son çıkan ‘Devin’ isimli bu yapay zeka yazılım mühendisi gayet güzel kod yazabiliyor, yazılım geliştiriyor, yazılımda bir problem varsa buna müdahil olup bunu düzeltebiliyor gibi. Benim kanaatim 10 veya 20 yıl içerisinde insanların verimini müthiş seviyede arttıracak ve çoğu meslek yok olmayacak ama sayıları çok azalacak.”

İşlerin rutin taraflarını yapan bir yapay zekanın daha hızlı hayatımıza gireceğini ifade eden Bıçakcı, “Ölçü şu: Sizin yaptığınız iş bir tablolama programına veri girme, sosyal medya içeriği üretme gibi rutin işlerdense bunlar çok daha hızlı bir şekilde yapay zeka tarafından yapılabilir olacak ve işvereniniz sizin yerinize bu işleri yapay zekaya yaptırmayı tercih edecek. Yani buradaki ölçü bir işin ne kadar rutin olup olmadığıyla ilgili. Yazılım mühendisi tarafına baktığımızda da yine bu işlerin ön yüz program yazma gibi biraz daha rutin tarafları var. Daha rutin, web sayfası geliştirme, basit programlama işlerini yapan kişiler işsiz kalabilirler.” diye konuştu.

Yapay zeka teknolojisinin gündelik yapılan işlerde kullanıldığında zaman açısından fayda sağladığını anlatan Bıçakcı, aynı zamanda işlerin daha verimli ve kaliteli yapılabileceğini vurguladı.

‘ACABA İNSANLARLA YAPAY ZEKA KARŞI KARŞIYA MI GELECEK?’

Siber güvenlik alanında ise insan unsurunun ön plana çıktığına işaret eden Bıçakcı, “deepfake” teknolojisiyle birlikte artan siber suçların yeni riskler doğurduğunu ve son gelişmelerle daha fazla siber güvenlikçiye ihtiyaç duyulacağını kaydetti.

Yapay zekanın siber güvenliğe olası etkisini de değerlendiren Bıçakcı, şunları aktardı:

“Siber güvenliğin ileride önemli bir alan olacağını değerlendiriyorum. Şimdi yapay genel zekadan bahsediliyor. Belirli görevlerde yapay zeka daha iyiyken süreç içerisinde insanın yaptığı çoğu işte yapay zeka daha yetenekli hale gelebildiği görülüyor. Robot teknolojisinin de gelişmesiyle birlikte ‘Acaba insanlarla yapay zeka karşı karşıya mı gelecek ve insan soyu adına böyle bir tehlike mi olacak?’ Uzun vadede bu tartışılıyor. Yapay zeka dijital teknolojileri kullanıyor, bunları ‘hack’ edip bunlarla mücadele edecek insanlar da siber güvenlikçilerdir. Bu teknolojileri iyi bilen, bu teknolojilerin zafiyetlerini analiz edebilen, o bakış açısına sahip hacker mantığını oturtmuş kişilere ihtiyaç duyulacak.”

Ödev, tez ile analiz gibi çalışmalarda yapay zeka teknolojisinden faydalanılabileceğini dile getiren Bıçakcı, araştırmacının teknolojiden hangi noktada nasıl faydalandığını yayınında belirterek etik sınırlar içerisinde kalması gerektiğini ifade etti.

“Deepfake” teknolojisiyle dolandırıcılığın da farklı bir boyuta geldiğine işaret eden Bıçakcı, “Basit bir e-posta mesajına aldanıp parasını kaptıran insanlarla, siz görüntüsü ve sesi tamamen tanıdığı insanlara benzeyen şekilde görüşme yapıp bir şey talep ettiğinizde korkutucu durumlar ortaya çıkabilir. Elektronik dünyada her şey mümkün. Gençler pek değil belki ama bu teknolojiyi çok bilmeden kullanan insanlar buna maruz kalıyorlar. Yapay zeka ve ‘deepfake’ dediğimiz teknoloji bu sorunu kat kat büyütecek gibi duruyor.” dedi.

Bıçakcı, bu tür dolandırıcılıklara karşı, teknik önlemlerin yanı sıra eğitim gibi yollarla farkındalığın artırılması gerektiğini kaydetti.

Yapay zekayla ilgili özellikle ABD’deki büyük gelişmelerin ülkelerin güvenliğini de yakından etkileyeceğine dikkati çeken Bıçakcı, sosyal medya, arama motoru gibi bilinen teknolojilerin yanı sıra yeni ‘ChatGPT’ gibi yapay zeka uygulamalarının kullanımı ile kişisel ve hassas verilerin diğer ülke ve şirketlerin eline geçebildiğini aktardı.

AÇIK YAPAY ZEKADA YERLİLİK ÇALIŞMASI

Şirketlerin de projelerini korumak için bu teknolojilerin kullanımını sınırlandırması ve yerli alternatiflerinin üretilmesi gerektiğini ifade eden Bıçakcı, “Şu an kullanılan yapay zeka uygulamaları, hep arkasında bir şirketin olduğu ve bizim sadece kullanıcısı olduğumuz, kullanıcısı olmakla da kalmayıp verimizi onlarla paylaşarak onların daha da gelişmesini sağladığımız sistemler. Bunların mutlaka Türkiye içerisinde de yerli versiyonlarının üretilmesi gerekiyor. Bu bağlamda da belki açık kaynak projelere dahil olunabilir.” değerlendirmesini yaptı.

Prof. Dr. Bıçakçı, artık “açık yapay zeka’ diye bir kavram olduğunun altını çizerek, Avrupa’da birtakım noktalarda çalışmalar yürütüldüğünü, bunların daha çok şirketler üzerinden gittiğini ve biraz daha önde olduklarını, Türkiye’de de belli şirketlerin bu konuda çalışmaya başladıklarını fakat burada mutlaka daha farklı ve daha bütçeli çalışmalar yapmak gerektiğini bildirdi.

Risklere karşı belli yasakların getirilebileceğini anlatan Bıçakcı, her kullanım durumunun ayrı ayrı incelenerek risk değerlendirmesi yapılıp güvenlik önlemleri alma yollarının aranması gerektiğini sözlerine ekledi.

(HABER MERKEZİ)

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir