Kaspersky Makine Öğrenimi Teknolojisi Grup Müdürü Vladislav Tushkanov, şunları söyledi: “GenAI araçları, teknolojik veri analizi ve rutin görevlerde yardımcı olduğu için çalışanların daha üretken olmasını sağlıyor. Ancak birçok kişi yapay zekayı işverenlerinden gerekli izni almadan kullanıyor. Bu durum kurum için önemli riskler doğurabilir. Örneğin veri sızıntısı önemli bir endişe kaynağı haline gelebilir. Ayrıca, çalışanlar ‘halüsinasyonlar’ sonucunda yanlış bilgiler alabilir ve bunlara göre hareket edebilir. Bu, büyük dil modellerinin yanlış bilgileri kendinden emin bir şekilde sunmasından kaynaklanır. Bu halüsinasyonlar, GenAI belirli iş işlevlerinin nasıl yerine getirileceği konusunda tavsiyelerde bulunmak için kullanıldığında özellikle tehlikeli olabilir.”

GenAI’nin Güvenli ve Verimli Kullanımında Stratejik Adımlar

Bu zorluğun üstesinden gelmek iş ortamında bir zorunluluk haline geldi. Bir diğer Kaspersky anketi, Türkiye’deki katılımcıların %40’ının yapay zekayı iş yerinde bir ekip üyesi olarak görmeye başladığını ortaya koyuyor. Kötü niyetli kullanıcıların, bireyleri hedef alan daha ikna edici sosyal mühendislik saldırıları oluşturmak için GenAI araçlarını etkili bir şekilde benimsemesi de bu durumu daha karmaşık hale getiriyor. Örneğin kişiselleştirilmiş kimlik avı e-postaları hazırlamak; insanları taklit eden gerçekçi ses, video veya metin içeriği içeren deepfake’ler oluşturmak, hatta kamuoyunu etkileyebilecek veya gerçeği gizleyebilecek dezenformasyon kampanyaları yaymak gibi.

“Bu, kuruluşların GenAI’yi tamamen engellemesi gerektiği anlamına gelmiyor. Bunun yerine karar vericiler, günlük iş rutininin hangi bölümlerinin işletmenin karşı karşıya olduğu tehdit düzeyine olumsuz etkide bulunmadan GenAI araçlarıyla otomatikleştirilebileceğini anlamak için kapsamlı bir risk değerlendirmesi yapmalıdır” diyor Tushkanov.

Bu sayede kuruluşlar, GenAI’nin kullanımı söz konusu olduğunda merkezi bir yaklaşım benimseyebilirler. Bu tür bir hizmet daha sonra bir bulut sağlayıcısı üzerinden kurumsal bir hesap aracılığıyla sağlanabilir ve gerekli tüm önlemlerin alındığından emin olunabilir. Bunlar, mesajlardaki kişisel olarak betimlenebilecek bilgilerin izlenmesinin yanı sıra gözetimi de içerebilir. Kuruluşlar ayrıca çalışanlarını GenAI’nin kabul edilebilir kullanımı ve bunlara erişimin şirket tarafından yönetilen uygun yolları konusunda eğitmelidir.

Kuruluşlar, GenAI kullanmanın faydalarını ve risklerini anlayarak ve olası tehlikeleri azaltmak üzere gerekli güvenlik önlemlerinin alınmasını sağlayarak çalışan verimliliğini ve iş memnuniyetini önemli ölçüde artırabilirler. Çalışanlar için genel kurallar, gizli verilerin yapay zeka araçlarına ifşa edilmemesini; herhangi bir kritik kullanım durumu için yapay zekanın tavsiyelerine güvenilmemesini; bilgilerin mutlaka doğrulanmasını; bir sohbet botuna sağlanan herhangi bir verinin dışarıya sızabileceğini hatırlamayı da içermelidir. Ayrıca büyük dil modeli (LLM) tabanlı sistemleri çalıştıran tüm bilgisayarın ve sunucuların güncel güvenlik araçlarıyla korunması gerekir.

Tushkanov, son olarak şunları söylüyor: “ChatGPT ve diğer çözümleri yasaklamak ideal seçenek olmayabilir. GenAI, çok fazla ve çok az tedbir arasındaki dengeyi bularak verimli bir şekilde kullanılabilir. Daha geniş anlamda, kamu ve özel sektör arasındaki iş birlikleri, GenAI’nin iş büyümesine yardımcı olmak, inovasyon için daha fazla kaynak ayrılmasını sağlamak ve riski yönetmek için kritik bir yardımcı haline gelmesine katkı sağlayacaktır.”


sitesinden daha fazla şey keşfedin

Subscribe to get the latest posts sent to your email.

Bir yanıt yazın