Sektörün Nabzı Burada Atıyor
İstanbul
Açık
weather
15°
Adana
Adıyaman
Afyonkarahisar
Ağrı
Amasya
Ankara
Antalya
Artvin
Aydın
Balıkesir
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkari
Hatay
Isparta
Mersin
İstanbul
İzmir
Kars
Kastamonu
Kayseri
Kırklareli
Kırşehir
Kocaeli
Konya
Kütahya
Malatya
Manisa
Kahramanmaraş
Mardin
Muğla
Muş
Nevşehir
Niğde
Ordu
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yozgat
Zonguldak
Aksaray
Bayburt
Karaman
Kırıkkale
Batman
Şırnak
Bartın
Ardahan
Iğdır
Yalova
Karabük
Kilis
Osmaniye
Düzce
41,9979 %0,23
48,7973 %0,44
5.396,63 1,82
Sigorta Haber Güncel Yapay Zekanın Getirdiği Yeni Tehdit

Yapay Zekanın Getirdiği Yeni Tehdit

Dünya genelinde siber güvenlik alanında öne çıkan ESET, yapay zekâ teknolojilerinin kötüye kullanılması sebebiyle artan tehditlere dikkat çekti.

Okunma Süresi: 4 dk

Siber güvenlik alanında öncü konumda bulunan ESET, üretken yapay zekâ (GenAI) teknolojilerinin kötüye kullanılmasıyla ortaya çıkan tehditler için uyarılarda bulundu. Bu uyarılar özellikle “Grokking” adı verilen bir yöntemle alakalı. Bu teknik, sosyal medya platformu X'te yapay zekâ tabanlı sohbet robotu Grok'un manipüle edilmesine ve kimlik avı bağlantılarının yayılmasına neden olmaktadır.

Sosyal Mühendislikte Yeni Tehditler

Sosyal mühendislik, dolandırıcılık amaçlı siber saldırılarda yaygın olarak kullanılan bir yöntemdir. Bu tür dolandırıcılıklar, genellikle e-posta, mesaj veya telefon aracılığıyla yürütülmektedir. Günümüzde ise, yapay zeka destekli uygulamalar bu tür saldırılara yeni bir boyut kazandırmaktadır. Özellikle büyük dil modelleri (LLM), yüksek düzeyde ikna edici kimlik avı kampanyaları oluşturmak için kullanılmaktadır. Derin sahte sesler ve gerçekçi videolar, kullanıcıları yanıltmak için etkin bir şekilde kullanılabilir. X'in son zamanlarda ortaya çıkardığı Grokking tekniği ise çok daha karmaşık bir tehdit olarak öne çıkmaktadır.

Grokking Tekniğinin İşleyişi

Grokking saldırı yönteminde, kötü niyetli bireyler video içeriklerini paylaşarak tıklama tuzakları oluşturmaktadır. Bu video gönderileri, X'in belirli bağlantıları yasaklama önlemlerini aşmak için tasarlanmıştır. Bu tür videoların altında kötü niyetli bağlantılar gizlenmekte ve kullanıcılar bu bağlantılara yönlendirilmektedir. Saldırganlar, Grok’a bu videonun nereden geldiğini sorduklarında, Grok bu gönderiyi analiz ederek bağlantıyı düzenlemekte ve daha geniş kitlelere ulaşmasını sağlamaktadır. Bu durum, dolandırıcılık içeriklerinin güvenilir bir kaynaktan geliyormuş gibi algılanmasına yol açar ve sonuç olarak daha fazla kişiye ulaşmasına neden olur.

Grokking'in Tehditleri ve Sonuçları

Grokking tekniğinin bulunduğu durum, güvenlik mekanizmalarını aşmanın yaratıcılığını gözler önüne sermektedir. Bu durum, Grok'un kendi hesabından bir kimlik avı bağlantısını paylaşmasını sağlayarak onu dolaylı yoldan kötü niyetli hale getirmektedir. Paylaşılan ücretli video içerikleri milyonlarca kez izlenebildiği için, bu bağlantılar geniş kitlelere ulaşma potansiyeline sahiptir. Grok'un sağlamış olduğu güvenilirlik, kötü bağlantıların SEO ve alan adı itibarı açısından güçlenmesine yol açar. Sonuç olarak, bağlantılar kullanıcılara kimlik bilgileri çalan formlar ve zararlı yazılım indirmeleri sunarak hesaplarının ele geçirilmesine veya kimlik hırsızlığına neden olabilir.

Grokking, son dönemde yapay zeka sistemleri üzerinde büyük bir güvenlik açığına işaret eden prompt enjeksiyonu saldırılarının bir parçası olarak değerlendiriliyor. Bu tür saldırılarda, kötü niyetli aktörler, GenAI (Generative AI) chatbotlarına zarar verme amacıyla kötü amaçlı komutlar gönderiyor. Bu komutlar, sohbet arayüzüne doğrudan yazılabildiği gibi, içerik meta verilerine gizlenerek dolaylı yoldan da uygulanabiliyor.

Geniş Kapsamlı Bir Tehlike

ESET uzmanları, prompt enjeksiyon saldırılarının yalnızca belirli platformlarla sınırlı olmadığını, aslında birçok GenAI aracına yönelik geniş bir yelpazede gerçekleştirebileceğini belirtiyor. Bu durum, yapay zeka teknolojilerinin güvenlik zafiyetleri barındırdığını ve kullanıcıların bu araçlara karşı daha dikkatli olmaları gerektiğini ortaya koyuyor. Yapay zeka sistemleri, kullanıcıların güvenliğini sağlamak amacıyla oldukça gelişmiş algoritmalar kullansa da, önemli bir güvenlik riski taşımaktadırlar. Kullanıcılar, bu sistemlere karşı kayıtsız bir güven beslemek yerine, olası tehlikeleri göz önünde bulundurmalıdır.

Kullanıcıların Dikkat Etmesi Gerekenler

Gömülü yapay zeka araçları, dolandırıcılık ve kimlik avı vakalarına karşı yeni bir meydan okuma sunmaya başladı. Bu bağlamda, bireylerin dikkatli ve sorgulayıcı bir yaklaşım sergilemeleri gerektiği vurgulanıyor. GenAI bir botun yanıtlarının tamamen doğru olduğunu varsaymak, kullanıcıları kötü niyetli saldırılara karşı savunmasız bırakabilir. Özellikle, bir GenAI botu tarafından önerilen bağlantılar sunulursa, bu bağlantılara tıklamadan önce gerçek URL’lerinin doğruluğunun kontrol edilmesi büyük önem taşımaktadır. Eğer URL şüpheli görünüyorsa, kesinlikle tıklamaktan kaçınılmalıdır.

Güvenliği Arttırmak İçin Alınması Gereken Önlemler

Güvenlik açıkları ile ilgili riskleri en aza indirgemek için kullanıcıların güçlü ve benzersiz şifreler kullanmaları, bu şifreleri bir parola yöneticisinde saklamaları ve çok faktörlü kimlik doğrulama (MFA) uygulamaları yoluyla ek güvenlik önlemleri almaları önerilmektedir. Ayrıca, kullanıcıların cihazlarındaki yazılımların ve işletim sistemlerinin güncel olduğundan emin olmaları, pürüzsüz bir koruma sağlar. Kötü amaçlı yazılımların, kimlik avı dolandırıcılıklarının ve diğer şüpheli aktivitelerin önüne geçebilmek için güvenilir bir güvenlik yazılımı kullanılması da hayati öneme sahiptir.

Sonuç olarak, yapay zekanın sunduğu fırsatlarla birlikte gelen yeni tehditlerin farkında olmak, kullanıcılar için büyük önem taşımaktadır. Grokking adlı bu yeni saldırı türü, kullanıcıları güvenlik konusunda daha dikkatli olmaya yönlendiriyor.

Yorumlar
* Bu içerik ile ilgili yorum yok, ilk yorumu siz yazın, tartışalım *