
Marmara Üniversitesi Öğretim Üyesi ve Adli Bilişim Uzmanı Ali Murat Kırık, yapay zekâ destekli ses klonlama sistemlerinin artık çok kısa kayıtlarla bile çalışabildiğine dikkat çekti.
“3 İLA 10 SANİYELİK KAYIT YETERLİ OLABİLİYOR”
Ali Murat Kırık, geçmişte dakikalarca ses kaydı gerektiğini ancak teknolojinin geldiği noktada riskin büyüdüğünü belirterek şu ifadeleri kullandı:
“Yapay zekâ destekli ses klonlama sistemleri artık düşündüğümüzden çok daha az veriyle çalışabiliyor. Geçmişte dakikalarca ses kaydı gerekirken bugün bazı gelişmiş sistemler için 3 ila 10 saniyelik net bir ses örneği bile yeterli olabiliyor. Özellikle sosyal medya videoları, YouTube yayınları, podcast kayıtları veya WhatsApp ses mesajları bu açıdan ciddi risk oluşturuyor. Kişinin tonlaması, vurgu biçimi ve konuşma ritmi kısa bir kayıtla taklit edilebildiği için, insanlar kendilerine ait sesin bu kadar kolay kopyalanabileceğinin farkında olmayabiliyor.”

“EN BÜYÜK RİSK SOSYAL MEDYA PLATFORMLARINDA”
Ses ve görüntü paylaşımının yoğun olduğu platformların kötü niyetli kişiler için önemli bir veri kaynağına dönüştüğünü söyleyen Prof. Dr. Kırık, özellikle Instagram, TikTok, YouTube ve X gibi platformlara dikkat çekti.
Kırık şunları söyledi:
“En büyük risk, ses ve görüntü paylaşımının yoğun olduğu sosyal medya platformlarında ortaya çıkıyor. Instagram, TikTok, YouTube ve X gibi platformlarda paylaşılan videoların yanı sıra WhatsApp ve Telegram üzerinden gönderilen ses kayıtları da kötü niyetli kişiler için veri kaynağına dönüşebiliyor. Özellikle kamuoyunda tanınan kişiler ya da sık video paylaşan kullanıcılar daha görünür risk altında. Ancak bu durum sadece ünlüler için geçerli değil; günlük hayatta ailesiyle sesli mesaj paylaşan sıradan kullanıcıların verileri de benzer şekilde istismar edilebilir.”
“ORTALAMA KULLANICININ BUNU ANLAMASI KOLAY DEĞİL”
Yapay zekâ ile oluşturulan seslerin gerçeğe oldukça yakın hale geldiğini belirten Prof. Dr. Ali Murat Kırık, panik anlarında kullanıcıların manipüle edilebildiğini ifade etti.
“Açık konuşmak gerekirse, ortalama bir kullanıcının bunu her zaman anlaması kolay değil. Yapay zekâ ile oluşturulan sesler artık duygu tonu, nefes aralıkları ve konuşma biçimlerini oldukça gerçekçi taklit edebiliyor. Özellikle telefonda panik yaratan bir senaryo oluşturulduğunda, örneğin ‘başım belada, acil para gönder’ gibi ifadeler kullanıldığında insanlar sesi sorgulamadan gerçek sanabiliyor. Bu nedenle yalnızca sese güvenmek artık yeterli değil; doğrulama amacıyla farklı bir kanaldan kişiye ulaşmak büyük önem taşıyor.”
TÜRKİYE’DE VAKALAR ARTIYOR
Türkiye’de de benzer dolandırıcılık girişimlerinde artış yaşandığını söyleyen Prof. Dr. Kırık, yapay zekâ araçlarının yaygınlaşmasının riskleri büyüttüğünü belirtti.
“Türkiye’de de bu tür dolandırıcılık girişimlerinde belirgin bir artış olduğunu söylemek mümkün. Özellikle son dönemde yapay zekâ araçlarının erişilebilir hale gelmesiyle birlikte hem sahte ses hem de görüntü manipülasyonlarına dayalı vakalar daha sık gündeme geliyor. Emniyet birimlerine ve siber güvenlik uzmanlarına yansıyan olaylarda, yakın akraba veya yönetici gibi davranılarak para talep edilmesi dikkat çekiyor. Teknolojinin yaygınlaşması, ne yazık ki dolandırıcılık yöntemlerini de daha sofistike hale getirmiş durumda.”

“SES DOĞRULAMASINA KÖRÜ KÖRÜNE GÜVENMEYİN”
Ali Murat Kırık’a göre en önemli korunma yöntemi ise ikinci bir doğrulama mekanizması oluşturmak.
“En kritik korunma yöntemi, ‘ses doğrulamasına körü körüne güvenmemek’ ve ikinci bir teyit mekanizması oluşturmaktır. Özellikle para talebi, kişisel bilgi paylaşımı veya acil durum içeren aramalarda kişiyi farklı bir numaradan geri aramak, görüntülü konuşma talep etmek ya da aile içinde bir güvenlik şifresi belirlemek oldukça etkili bir önlem olabilir. Çünkü artık duyduğumuz sesin gerçekten o kişiye ait olduğunu varsaymak, dijital çağda ciddi bir güvenlik açığına dönüşebiliyor.”
Uzmanlar, özellikle sosyal medya hesaplarında herkese açık şekilde paylaşılan uzun ses ve video kayıtlarına karşı daha dikkatli olunması gerektiği konusunda uyarıyor.











English (US) ·