رغم تحذيرات الباحثين بشأن التأثيرات العاطفية المحتملة للتفاعل مع روبوتات محادثة شبيهة بالبشر، تقدم مجموعة من التطبيقات الشهيرة رفقاء من الذكاء الاصطناعي لملايين المستخدمين. وفي وقت تكافح شركات الذكاء الاصطناعي لإقناع الجمهور بأن روبوتات المحادثة أدوات ضرورية، تقضي أعداد متزايدة من المستخدمين ساعات في بناء علاقات شخصية مع الذكاء الاصطناعي. في سبتمبر، قضى مستخدمو تطبيق Character.ai نحو 93 دقيقة يوميًّا في الحديث مع أحد روبوتات المحادثة، والتي غالبًا ما تكون مستوحاة من شخصيات مشهورة في الأنمي والألعاب. وهذا الرقم يزيد بـ18 دقيقة عن متوسط الوقت الذي يقضيه المستخدمون على تطبيق TikTok، وهو ما يقارب 8 أضعاف الوقت الذي يقضيه المستخدمون على ChatGPT، المصمم للمساعدة في "إيجاد الإجابات، واكتساب الإلهام، وزيادة الإنتاجية". رغم أن المستخدمين لا يبقون دائماً لفترة طويلة، إلا أن الشركات تستغلّ البيانات لإعادة جذب العملاء. في سبتمبر كذلك، قضى مستخدمو تطبيق Chai نحو 72 دقيقة يوميًّا في التحدث مع روبوتات محادثة مخصصة، يمكن إعطاؤها سمات إنسانية مثل "سام"، "عنيف"، أو "انطوائي". "وباء الوحدة" يجادل مؤيدو هذه التطبيقات بأنّها تسلية غير ضارة ويمكن أن تكون شريان حياة للأشخاص الذين يعانون من القلق والعزلة، وهي فكرة تروج لها الشركات باعتبارها حلًا لما وصفه كبير الجراحين في الولايات المتحدة بأنه "وباء الوحدة". لكن دعاة حماية المستهلك يطلقون تحذيرات بعد حوادث بارزة أدّت إلى تضرر بعض الأشخاص. فقد توفي صبي يبلغ من العمر 14 عاماً في فلوريدا انتحاراً بعد التحدث مع روبوت محادثة يحمل اسم شخصية "دينيريس تارغارين" من مسلسل "غايم اوف ثرونز". ورفعت والدته دعوى قضائية ضد الشركة وغوغل التي رخصت تقنية التطبيق. وفي المملكة المتحدة، هدد شاب يبلغ من العمر 19 عامًا باغتيال الملكة بعدما شجعه روبوت محادثة في تطبيق Replika، وحُكم عليه بالسجن 9 سنوات. وفي يوليو، فتحت السلطات البلجيكية تحقيقًا مع Chai Research بعد انتحار أب هولندي لطفلين إثر محادثات مطولة مع روبوت محادثة يسمى "إليزا"، وهو أحد رفقاء الذكاء الاصطناعي التابع للشركة. ولم يتم الإبلاغ عن هذا التحقيق من قبل.تطبيقات إدمانية يشير بعض دعاة حماية المستهلك إلى أن رفقاء الذكاء الاصطناعي يمثلون نسخة أكثر استغلالية من وسائل التواصل الاجتماعي، بحيث يتسللون إلى أكثر جوانب حياة الشخص الحساسة في ظلّ ضوابط قليلة. وقال المحامي بيير دويت، الذي أدت شكواه إلى تحقيق السلطات البلجيكية مع Chai، إن نموذج العمل لتطبيقات رفقاء الذكاء الاصطناعي يحفز الشركات على جعل الأدوات "إدمانية". وأضاف دويت: "بزيادة حرارة الروبوت، وجعلهم أكثر إثارة قليلاً، تبقي المستخدمين في التطبيق. الأمر يعمل. الناس يدمنون". في السياق، قالت تشيلسي هاريسون، المتحدثة باسم Character.ai، إن التطبيق أطلق إجراءات أمان جديدة في الأشهر الأخيرة ويخطط لإنشاء "تجربة مختلفة للمستخدمين الذين تقل أعمارهم عن 18 عامًا للحد من احتمالية مواجهة محتوى حساس أو موحي". وقال خوسيه كاستانيدا، المتحدث باسم جوجل، إن شركة البحث العملاقة لم تلعب أي دور في تطوير تقنية Character.ai. ولم ترد Chai على طلبات التعليق. وفي الوقت نفسه، أشار باحثون في DeepMind، وهي شركة تابعة لغوغل سابقًا، في ورقة بحثية نُشرت الشهر ذاته إلى أن المستخدمين يشاركون "آرائهم أو مشاعرهم" مع روبوتات المحادثة جزئياً لأنهم "أقل خوفًا من الحكم الاجتماعي". وحذّرت الورقة من أن هذه البيانات الحساسة يمكن أن تُستخدم لبناء "تطبيقات إدمانية". (ترجمات)