Otomasyon, etik kaygılar ve iş kaybı endişesiyle şekillenen bu modern direniş, “Neo-Luddit” hareketi olarak anılıyor.
Veri merkezlerinden kod satırlarına sabotaj
Yapay zekânın sağlık, ulaşım, finans ve tarım gibi alanlardaki etkisi giderek artarken; Neo-Luddit olarak tanımlanan gruplar, veri merkezlerinin altyapılarını, otonom sistemleri ve yapay zekâ algoritmalarını hedef alan sabotajlar düzenliyor. San Francisco'da otonom taksilere yönelik fiziki müdahaleler, Hollywood’da yapay zekâ karşıtı grevler ve sanat dünyasından gelen kolektif tepkiler, isyanın boyutlarını gözler önüne seriyor.
Siber güvenlikte alarm zilleri çalıyor
Verizon’un 2025 Veri İhlali Raporu’na göre bu yıl 22 binin üzerinde siber olay yaşanırken, bunların 12 binden fazlası doğrulandı. Deepfake sahtekârlıklarında iki yıl içinde 31 kat artış yaşanırken, yalnızca Hong Kong’daki bir vakada 25,6 milyon dolarlık dolandırıcılık gerçekleştirildi. IBM verilerine göre ise tek bir veri ihlalinin ortalama maliyeti 4,88 milyon dolar.
Yıkıcı etkiler daha organize olabilir
Gelişen olaylar henüz dağınık biçimde gerçekleşse de sosyal medyanın gücü, bu hareketlerin ileride daha örgütlü bir yapıya dönüşebileceği ihtimalini gündeme getiriyor. Uzmanlara göre, beş dakikalık bir üretim durması bile küresel tedarik zincirinde milyonlarca dolarlık kayıplara neden olabilir.
Neo-Luddit hareketleri büyüyor
Hollywood’da 148 gün süren yapay zekâ karşıtı SAG-AFTRA ve WGA grevleri
Otonom araçlara yönelik fiziksel sabotajlar (Safe Street Rebel)
Sanat ve yazım alanında 4 bin imzayla başlatılan açık mektup kampanyaları
Z kuşağını dijital dünyadan koparmayı hedefleyen The Luddite Club
Yapay zekâ geliştiren bazı şirketlerde etik kaygılarla başkaldıran mühendisler
Avrupa’da mahremiyet, Asya’da veri güvenliği ve gelişmekte olan ülkelerde iş kaybına karşı direniş
Neden şimdi daha tehlikeli?
Bugün yapay zekâ artık hayatî kararların merkezinde. Deepfake’ler herkesin erişebileceği uygulamalarla üretilebiliyor. İnsan hatası kaynaklı ihlaller tüm sistemi riske atıyor. 2027 yılına kadar yalnızca deepfake kaynaklı dolandırıcılıkların 40 milyar doları aşması bekleniyor (Deloitte).
Önlemler ve stratejik yol haritası
Uzmanlara göre, yapay zekâ sabotajlarına karşı kapsamlı bir güvenlik ve toplumsal direnç stratejisi oluşturulmalı:
Teknik önlemler: Biyometrik erişim sistemleri, yapay zekâ destekli tehdit tespiti, deepfake karşıtı doğrulama sistemleri
Toplumsal önlemler: Beceri dönüşüm programları, kamu farkındalık kampanyaları, etik yapay zekâ eğitimleri
Yasal çerçeve: EU AI Act ile uyumlu mevzuat, sabotaja karşı caydırıcı yasalar, ulusal koordinasyon yapıları
Katılımcı modeller: Çalışanlar, etik uzmanları ve teknoloji liderlerinin bir araya geldiği diyalog platformları
İsyanın ayak sesleri
Yapay zekâ, insanlık için büyük imkânlar sunarken aynı zamanda kontrolsüz büyümenin getirdiği riskleri de beraberinde getiriyor. Neo-Luddit isyanı, teknolojik dönüşüme karşı bireylerin ve toplumların kaygılarını yansıtıyor. Türkiye, bu küresel dalgayı dikkatle izleyerek hem teknik hem de toplumsal savunma hattını güçlendirmeli.
Yapay zekânın geleceği, yalnızca teknolojinin gelişimiyle değil; etik, güvenlik ve sosyal dengeyle birlikte inşa edilecek.