Yapay zekanın (AI) okul ödevleri için basit konuşma sorularına yanıt verdiğini, New York metrosunda silah tespit etmeye çalıştığını gördük; Bilgilendirildik.Artık deepfake'lerle çocuklara yönelik cinsel istismar içerikleri oluşturuluyor Kendisini kullanan bir suçlunun mahkûm edilmesinde suç ortağı olarak görüldüğünü gördük. Dijital güvenlik şirketi ESET, ilerlemeye devam eden yapay zekanın yanlış yöne gitmesini önlemek için yapılan çalışmaları inceledi ve nelere dikkat edilmesi gerektiğini paylaştı. ESET yıllardır güvenlik bağlamında yapay zekayı kullanıyor. Yapay zekanın sihirli bir değnek olmadığı konusunda uyardı, çünkü önemli noktaları yanlış anlıyor. Bununla birlikte, “sadece ara sıra” kritik şeyleri yanlış yapan güvenlik yazılımları, güvenlik ekiplerinin boşa giden çabalarını tetikleyen devasa hatalı pozitif sonuçlar vererek veya kendisini cezbeden kötü amaçlı yazılımdan “yeterince farklı” görünen kötü niyetli bir saldırıdan kaçınarak son derece olumsuz bir etkiye sahip olacaktır. 'Yapay zeka zaten biliyor. Bu nedenle, kontrol ve dengeyi sağlamak için ESET yapay zekayı bir dizi başka teknolojinin üstüne katıyor. Bu şekilde, eğer yapay zekanın tepkisi dijital bir halüsinasyona benziyorsa, onu da teknoloji yığınının geri kalanıyla birlikte kullanımdan kaldırabilir. Düşmanlar, özellikle kimlik avı ve sosyal mühendislik gibi tamamen yapay zeka saldırıları başlatmamış olsalar da, çaba gösteriyorlar. Kimlik avından ses ve video klonlamada daha etkili olabilmek için süper geliştirilmiş saldırılara kadar Zincirdeki bağlantıları otomatikleştiren düşmanca yapay zekayı düşünmeniz gerekir. Kötü aktörler dijital olarak güven kazanabilir ve yapay zeka tarafından oluşturulan verileri kullanarak sistemleri kimlik doğrulaması için kandırabilirse, bu, kuruluşunuza sızmak ve özel istismar araçlarını manuel olarak başlatmak için yeterli olacaktır. Bunu önlemek için satıcılar çok faktörlü kimlik doğrulama katmanını kullanabilir. Bu, saldırganların tek bir giriş veya parola yerine birden fazla kimlik doğrulama yöntemine ihtiyaç duyduğu anlamına gelir. Bu teknoloji şu anda yaygın olarak kullanılsa da kullanıcılar tarafından pek tercih edilmiyor. Bu, kullanıcıların ağır yükler veya büyük bütçeler olmadan kendilerini korumalarının kolay bir yoludur.Hepsi yapay zekanın suçu mu?Yapay zeka yanlış mı? Yapay zekanın yanlış anlaşılmasının ardındaki neden sorulduğunda insanlar şaka yollu “karmaşık” yanıtını verdi. Ancak yapay zeka, fiziksel zarar verme ve gerçek dünyayı etkileme yeteneğine yaklaştıkça, bu artık tatmin edici ve yeterli bir cevap olmaktan çıkıyor. Örneğin yapay zeka destekli sürücüsüz bir araba kaza yaparsa “sürücü” mü yoksa üretici mi cezalandırılacak? Bu, ne kadar karmaşık ve anlaşılmaz olursa olsun mahkemeyi tatmin edecek bir açıklama değil. Peki gizlilik? GDPR kurallarının, gizlilik açısından bakıldığında teknolojinin çılgına dönmesini engellediğini gördük. Elbette, kâr amaçlı türevler üreten, dilimlenmiş ve doğranmış orijinal yapay zekadan türetilmiş çalışmalar, gizlilik ruhuna aykırıdır ve bu nedenle koruyucu yasaları tetikleyecektir. Peki yapay zekanın türev olarak değerlendirilmesi için tam olarak ne gerekiyor? şu kadar Kopyalamak zorunda mı ve mevzuatı aşacak kadar kopyalarsa ne olur? Üstelik hukuki olarak daha iyi test edilmesi yıllar alacak içtihatların yetersiz olduğu bir ortamda bunu mahkemede kim ve nasıl kanıtlayacak? Gazete yayıncılarının Microsoft ve OpenAI'ye dava açtığını görüyoruz çünkü makalelerin atıf yapılmadan yüksek teknoloji kullanılarak çoğaltıldığına inanıyorlar; Davanın sonucu merak konusu olacak, belki de ileride yaşanacak hukuki süreçlerin habercisi olacak. Yapay zeka bir araçtır ve çoğu zaman iyi bir araçtır ancak büyük güç, büyük sorumluluğu da beraberinde getirir. Şu anda yapay zeka tedarikçilerinin sorumluluğu, yeni keşfedilen gücümüzün ters gitmesi durumunda olabileceklerin çok altında kalıyor. Kaynak: (guzelhaber.net) Güzel Haber Masası
—–Sponsorlu Bağlantılar—–
—–Sponsorlu Bağlantılar—–
—–Sponsorlu Bağlantılar—–