Konu Yapay Zeka olduğunda daha büyük, daha iyi demek anlamına gelmiyor.
Yazan: Red Hat EMEA Açık Kaynak Destekçisi Jan Wildeboer
Görüldüğü üzere yapay zeka her yerde ve git gide daha kalıcı hale geliyor. Bu süreç ChatGPT ile başlamadı ancak geçen sene kasım ayında erişime açıldığında beklentileri epey yukarıya taşıdı. Teknoloji dünyasında blokzincirden beri yarattığı heyecanı ve kullanımı bu kadar hızlı artan bir şey görmemiştik. IDC’nin bu yılın başlarında yayınladığı bir rapora göre yapay zeka için yapılan harcamalar 2026’ya kadar tüm dünyada 301 milyar dolar seviyesine ulaşacak ve bu dönemde yapılan harcamaları ikiye katlayacak.
Söylenene göre çalışan verimliliğinden müşteri memnuniyeti ve risk azaltmaya kadar her alan bu teknolojiden faydalanabiliyor. Oluşan heyecanı takip eden pek çok çalışan da yapay zeka öncüsü olmak ve yeni yollarla rekabet avantajı oluşturmak için ilk kullananlar arasında yer almak istiyor. Ancak bu şekilde de şirketlerini bazı risklere açık hale getiriyor.
Kontrol meselesi
Veri değerli olduğu ve ne kadar çok olursa o kadar değerli olduğu için veriye önem veriliyor ancak bu argüman her zaman geçerli olmayabiliyor. Çünkü girilen veri seti arttıkça veri kaynağını ve doğruluğunu denetlemek de o kadar zorlaşıyor. Yapay zekanın istemeden ortaya çıkarabileceği olası telif hakkı ihlalleri de bu konunun farklı bir boyutu.
Yapay zekanın popülerliğini bir kere daha tepelere çıkartan ChatGPT’ye bakalım. OpenAI’ın web sitesinde yazan bilgiye göre ChatGPT’nin “yanlış bilgi oluşturma ihtimali bulunuyor” ve bunu destekleyen pek çok örnek de var. Eğer nasıl kek yapabileceğinizi öğrenmek istiyorsanız bu büyük bir sorun değil ancak içtihat hukuku için kullanırsanız durum ciddileşiyor.
Bu riski kurumsal ortamda düşünün. Bir yapay zeka aracı otomatik olarak stok seviyelerini ayarlıyor, performansa göre maaşları belirliyor, çeyrek boyunca oluşacak nakit akışını tahmin ediyor, döviz alım satımını iyileştiriyor veya bunun gibi şirketin karlılığı üzerinde önemli etkiye sahip olacak pek çok temel kararları veriyor. Bu durum, çalışanlar kendi ‘gölge’ yapay zeka araçlarını kullanmaya başlayana kadar kolaylıkla olgun bir veri yönetimi ve yerinde bir yapay zeka stratejisi olarak algılanabilir. Varlığını bilmediğiniz şeyi kontrol edemezsiniz.
Dolayısıyla burada iki tane sorun var. Birincisi bildiğiniz yapay zeka araçlarının sağlamlığından nasıl emin olabilirsiniz ve ikincisi de çalışanlarınızın işlerini desteklemesi için yetkilendirilmemiş ve izin verilmemiş yapay zeka araçlarını kullanmasını nasıl engelleyebilirsiniz?
Cevap net olmaktan ziyade daha çok kavramsal. Yapay zekanın geleceği günümüzde haber başlıklarını ele geçiren Kapsamlı Dil Modelleri (Large Language Models, LLM) ve pek çok kullanıcıya hizmet eden sıradan çözümlerde olmayacak. Bunun yerine şirketler, kullanacakları yapay zeka aracının kendi sektörlerine, müşterilerine ve işlerine özel imkanlar sunmasını isteyecek.
Daha iyi ve daha alakalı veri
İnsanların yaptığı işleri yapan ama insanı taklit etmeye odaklanmayan yapay zekanın (domain-specific AI) yeni çağı, benzersiz ve farklılaştırılmış hizmetler oluşturma becerisiyle birlikte gelecek. Bunun için de özel veriyle eğitilmiş ve belirli şirket veya sektörün standartlarına ve çalışma şekline göre özelleştirilmiş temel modeller gerekiyor. İyi organize edilmiş, odaklanmış ve doğrulanmış veriyle beslenen temel yapay zeka, güvenebileceğiniz uzman birisiyle çalışıyormuş hissini verebilir çünkü farklı kaynaklardan bir araya toplanmış rastgele veri kümeleriyle oluşturulmuyor. Oluşturduğu kararlar da daha alakalı ve etkili oluyor. Bunun sonucunda çalışanlar da kendi gizli çözümlerini aramak ihtiyacını hissetmiyor. Hatta oluşturma projesine dahil edildiklerine sahiplik hissi de geliştirebiliyorlar ve aracı kullanma ihtimalleri artıyor.
Konuya dair detaylı bilgi sahibi olanlar yapay zeka ile ilgili gerçekten ilgi çekici inovasyonların bu alanda yapıldığını biliyor. Domain-specific olarak adlandırılan yapay zeka için araç setleri şu anda geliştiriliyor ve yapay zeka alanındaki büyük oyuncuların inovasyon gücünü geçti bile. Bazen ne kadar küçükse o kadar iyi oluyor.
Tabii şeffaflık ve dürüstlük çok önemli. Bu da yapay zeka geliştirmelerini yasal ve uyumluluk ekiplerinin sorumluluk alanında bulunuyor. Veri bilimciler ve DevOps ekipleriyle birlikte çalışmak, etkili bir yapay zeka stratejisinin önemli bir özelliği olacak.
Bu ekiplerin yapay zekanın nasıl ve ne zaman kullanılacağına dair bir rehber oluşturması ve onu uygulaması, düzenleyici yapıların verinin kaynağına dair soracağı soruları önceden cevaplayabilir olması gerekiyor. AB Yapay Zeka Yasası, ABD Yapay Zeka İnsan Hakları Beyannamesi ve Çin’in Algoritmik Öneri Yönetim Hükümleri de dünyanın farklı bölgelerinde hükümetlerin yaklaşımlarını geliştirdiğini gösteriyor.
Özetle, yapay zeka heyecanına dikkatle yaklaşmakta fayda var. Genel kullanım için uygun olan yapay zekadan belirli bir alana özel yapay zekaya geçiş yapan şirketler kendilerini daha etkili imkanlarla ve (doğru yapıldığında) daha eğitimli ve uyumlu çalışanlarla güçlendirebiliyor. Bu adımı atmak için de güçlü bir liderlik gerekiyor. Yapay zekaya yönelik haberler, yapay zekanın acele bir şekilde kullanılmasına neden oldu. Buradaki mantıklı yaklaşım ise bekleyip, değerlendirip sistemlere, insanlara ve şirket kültürüne yapacağınız yapay zeka yatırımlarının risklerinin ve fırsatlarının detaylıca incelendiğinden emin olmanızdan geçiyor.