Milli İstihbarat Akademisi Öğretim Üyesi Dr. Erbay: “Türkiye’de yapay zeka modelinin geliştirilmesi güvenlik anlamında oldukça önemli”

Milli İstihbarat Akademisi (MİA) Öğretim Üyesi Dr. Celal Erbay, “Yapay zekayı biraz daha güvenlik kısmında, siber güvenlik saldırılarını engellemesindeki hızından faydalanma adına kullanabiliriz ve değerlendirebiliriz. Özellikle dil modellerinin geliştirilmesi anlamında Türkiye’de de böyle bir yapay zeka modelinin geliştirilmesi güvenlik anlamında oldukça önemli” dedi.
MİA tarafından düzenlenen "Yapay Zeka, Toplum ve Güvenlik Çalıştayı" başladı. Çalıştay katılımcılarından Milli İstihbarat Akademisi Öğretim Üyesi Celal Erbay, İHA’ya yaptığı değerlendirmede yapay zekanın toplumları değiştirdiğini ve toplumları etkilediğini ifade etti. Yapay zekanın getirdiği fırsatlar kadar riskler olduğuna dikkat çeken Erbay, "Yapay zeka sonuçta son yıllarda özellikle toplumların gündemine gelen bir konu fakat geçmişine baktığımız zaman 1950’lere kadar dayanan bir terim. Ardından yine baktığımız zaman 1980’lere geldiğimizde güvenlik alanında dünyada özellikle ABD gibi ülkelerde kullanılmaya başlanan bir konu. Orada aslında birçok ortamda yapay zekanın geliştirildiği ve bunların aktif bir şekilde kullanıldığını görüyoruz. Yapay zekayı şöyle tarif edebiliriz; en temelinde güvenlik anlamında kullanımına baktığımız zaman veri analizi ve siber güvenlik. Burada yapay zekanın veri analizinde işleri yüzde 50 hızlandırdığı, yine siber güvenlik saldırılarını yüzde 30, yüzde 40’lar oranında hızlandırdığını, daha doğrusu önlediğini biliyoruz. Bu tür bilgiler açık ortamlarda bulunmakta” ifadelerini kullandı.
Genelde yapay zekanın işleri, iş fırsatlarını azaltacağı, insanların iş kaybına yol açacağıyla ilgili bazı ön yargılar ve endişeler olduğunu belirten Erbay, “Fakat biz yapay zekayı biraz daha güvenlik kısmında özellikle bir takım arkadaşı ve yan işlerimizde yardımcı olacak bir arkadaş olarak görüp, işlerimizi hızlandırma adına, siber güvenlik saldırılarını engellemesindeki hızından faydalanma adına kullanabiliriz ve değerlendirebiliriz” dedi.
Yapay zekada hızlı bir gelişim yaşandığına dikkat çeken Erbay, “En başta sorduğumuz sorulara cevaplarla başladı. Ardından yapay zekanın verilen komutlarla resim üretmesi, fotoğraflar üretmesi ve son zamanlarda da artık bu video üretimine kadar geldi. Burada sizin verdiğiniz verilerle, daha doğrusu verdiğiniz talimatlarla istenilen herhangi bir ses kaydının oluşturulması, videonun oluşturulması, fotoğrafların oluşturulması çok ciddi dezenformasyonlara yol açabilir. Bunlarla ilgili de açıkçası farklı önlemlerin alınması oldukça zaruri. Burada özellikle kötü aktörler, dünyada bulunan kötü aktörlerin ülkeleri bile birbirine düşürebilecek diplomasi, zafiyete yol açabilecek bu tür ürünler üretmesi oldukça önemli. Bunların tespit edilip ortaya çıkarılması da ayrıca çalışılması gereken önemli konulardan bir tanesi” şeklinde konuştu.
ABD’de seçimlerde bazı firmaların veri toplayarak insanları manipüle etmek amacıyla yapay zekayı kullandığını bildiklerini aktaran Erbay, “Bunlar aslında biraz daha 2015, 2016, 2017’li yıllar. O süreçlerdeki yapay zekanın kullanımı ya da yapay zekanın çalıştığı algoritmalar ve donanımsal altyapılar şu anda aslında misli misli ilerlemiş durumda” dedi.
Dezenformasyonla ilgili çalışmaların şu an çok daha yüksek seviyelere ulaştığını belirten Erbay, “Bu yüzden aslında dikkat edilmesi gereken konular bunlar. İnsanların verileri artık ortamlarda, sosyal medyada ya da diğer ortamlarda erişilebilir durumda ve yapay zekadaki donanımların ilerlemesiyle birlikte bu verilerin analizi de aslında oldukça hızlanmış durumda. Tabii ki burada yapılan çalışmalar aslında bu teknolojilerle üretilen video veya resim veya ses kayıtlarının aslında gerçek olmadığını gösterecek çalışmalar da yapılabilir. Aslında bu çalışmalar da yine yapay zeka teknolojileri kullanarak yapılmaktadır. Biliyorsunuz dünyada yapay zeka modellerini geliştiren uluslararası büyük firmalar var, özellikle Amerika Birleşik Devletleri’nde. Sabahki sunumlarda hocalarımız da bunları ifade etti. Dünyada baktığımız zaman Amerika Birleşik Devletleri, Çin ve Avrupa Birliği biraz daha bu konularda ön planda gözüküyor. Bunun en büyük, en temel sebebi de aslında geliştirdikleri büyük dil modelleri. Büyük dil modellerinin de geliştirilmesi için çok ciddi altyapılar gerekiyor. Donanımların oluşturulması gerekiyor. Örneğin Avrupa’da geliştirilen bir dil modeli için ihtiyaç duyulan altyapısal donanımların maliyeti yaklaşık 1 milyar dolardı. Bunlar maliyetli konular. Özellikle dil modellerinin geliştirilmesi anlamında Türkiye’de de böyle bir yapay zeka modelinin geliştirilmesi güvenlik anlamında oldukça önemli” diye konuştu.
Erbay, güvenlik tarafındaki analizlerin çok hızlı bir şekilde yapılması için kendi dil modellerini kullanmanın oldukça zaruri olduğunu, bu anlamda da TÜBİTAK’ta yapılan çalışmalar olduğunu bildiklerini söyledi.