بدأت شركة OpenAI بتسريح الموظفين الذين يعملون في مجال الذكاء الاصطناعي (AI) عند اختبار الإعلانات على ChatGPT. أعلنت إحدى الباحثات، زوي هيتزيج، رحيلها عن الشركة بعد عامين، شاركت خلالها في تشكيل أساليب إنشاء نماذج الذكاء الاصطناعي والتسعير ومعايير السلامة الأولية. ذكرت ذلك صحيفة نيويورك تايمز (NYT).

وبحسب تقييمها فإن إطلاق الإعلان أثار الشكوك حول التوجه الاستراتيجي للشركة. ويشير هيتزيج إلى أن المستخدمين قاموا بإنشاء مجموعة واضحة وفريدة من البيانات لعدة سنوات، حيث ينظرون إلى برامج الدردشة الآلية على أنها أداة ليس لها أي فوائد محتملة. وفقًا لهذا الموظف السابق، فإن استخدام الإعلانات المستندة إلى تلك البيانات يمكن أن يخلق مخاطر تلاعب المستخدم، حيث يشارك الأشخاص معلومات شخصية حول صحتهم وعلاقاتهم ونظرتهم للعالم مع روبوتات الدردشة.
تقول OpenAI أنه سيتم تصنيف الإعلانات بشكل واضح، ووضعها أسفل الإجابات، ولن تؤثر على محتوى نتائج البحث. وفي الوقت نفسه، أعرب هيتزيغ عن قلقه من أن النموذج الاقتصادي قد يشجع في المستقبل على الابتعاد عن هذه المبادئ.
تؤكد OpenAI على أن الإعلان يمكن أن يصبح مصدرًا مهمًا للدخل لأن تطوير الذكاء الاصطناعي وتشغيله يتطلب تكاليف كبيرة. وأشارت الصناعة أيضًا إلى أن تكاليف الاشتراك في خدمات الذكاء الاصطناعي المتقدمة وصلت إلى 200-250 دولارًا شهريًا، وهو ما يتجاوز بشكل كبير تكلفة الاشتراكات الرقمية العادية.
ويناقش الخبراء نماذج تمويل بديلة محتملة، بما في ذلك الدعم المتبادل للوصول إلى الذكاء الاصطناعي من عملاء المؤسسات، وإنشاء ضوابط مستقلة على استخدام بيانات المستخدم، ونقل السيطرة على بيانات المستخدم إلى كيانات منفصلة تعمل نيابة عنهم. ويقول منتقدو الاستراتيجية الحالية إن الصناعة بحاجة إلى إيجاد توازن بين جعل التكنولوجيا في متناول الجميع وحماية المستخدمين من الضغوط المحتملة لآليات الإعلان.


