أجرى مجموعة من الباحثين تجربة على منصة تواصل اجتماعي مصغرة تضم أكثر من 500 روبوت دردشة، باستخدام خوارزمية "جي بي تي 4 أو ميني" من "أوبن إيه آي"، ومن ثم نماذج "لاما-3.2-8ب" و"ديب سيك"، لإيجاد سلوك الروبوتات في محاكاة منصات التواصل. كل روبوت كان له شخصية افتراضية تمثل التوزيعات الحقيقية للعمر والجنس والتعليم والدين والآراء السياسية والأيدولوجية، مستمدة من بيانات الانتخابات الوطنية الأميركية. ومن دون أي خوارزميات للترويج أو الإعلانات، وجدت الدراسة أن الروبوتات انجذبت نحو من يشاركها الآراء السياسية، شكلت مجموعات متطرفة، وتفاعل معظم المتابعين مع المنشورات المثيرة للجدل والمتطرفة.
حاول الباحثون الحد من سيطرة هذه المجموعات عبر إخفاء عدد المتابعين أو تعديل ظهور المحتوى، لكن دون جدوى، ما يشير إلى أن المشكلة قد تكون متجذرة في طبيعة الشبكات الاجتماعية نفسها، وليس فقط بسبب الخوارزميات. هذه ليست التجربة الأولى من نوعها، فقد نفذ تورنبيرج تجارب مشابهة عام 2023 باستخدام "شات جي بي تي 3.5"، كما قامت "فيسبوك" بمحاكاة مشابهة عام 2020 لدراسة المحتوى الضار. النتائج تؤكد أن طبيعة التفاعل العاطفي ونمو الشبكة يمكن أن تؤدي إلى انتشار الأصوات المتطرفة حتى دون تدخل خوارزميات التوصية.
