ستبدأ شركة الإنترنت كلاود فلير بمنع روبوتات الذكاء الاصطناعي من الوصول إلى المحتوى
الثلاثاء يشهد بدء تطبيق إجراء يشكل ضربة للذكاء الاصطناعي ويصب لصالح الناشرين على الإنترنت

ستبدأ شركة الإنترنت كلاود فلير بمنع روبوتات الذكاء الاصطناعي من الوصول إلى المحتوى دون إذن أو تعويض من أصحاب المواقع، وذلك افتراضيا، في خطوة قد تؤثر بشكل كبير على قدرة مطوري الذكاء الاصطناعي على تدريب نماذجهم، بحسب شبكة سي إن بي سي.
ابتداءً من يوم الثلاثاء، سيُسأل كل نطاق ويب جديد يُسجل في كلاود فلير عما إذا كان يرغب في السماح لروبوتات الذكاء الاصطناعي، مما يمنحه القدرة على منع الروبوتات من جمع البيانات من مواقعه. كما ستسمح الشركة للناشرين بفرض رسوم على روبوتات الذكاء الاصطناعي مقابل الوصول باستخدام نموذج "الدفع مقابل كل عملية جمع".
توفر كلاود فلير ما يعرف باسم شبكة توصيل المحتوى (CDN)، وهي تختص بمساعدة الشركات على توصيل المحتوى والتطبيقات عبر الإنترنت بشكل أسرع من خلال تخزين البيانات مؤقتًا بالقرب من المستخدمين النهائيين. وتلعب هذه الشبكة دورًا هامًا في ضمان وصول المستخدمين إلى محتوى الويب بسلاسة يوميًا.
قدّرت الشركة في تقرير صدر عام 2023 أن حوالي 16% من حركة مرور الإنترنت العالمية تمر مباشرةً عبر شبكة توصيل المحتوى التابعة لكلاود فلير.
قال ماثيو برينس، المؤسس المشارك والرئيس التنفيذي لشركة كلاود فلير، في بيان يوم الثلاثاء: "لقد عملت برامج الزحف المعتمدة على الذكاء الاصطناعي على استخراج المحتوى دون حدود. هدفنا هو إعادة السلطة إلى أيدي المبدعين، مع الاستمرار في مساعدة شركات الذكاء الاصطناعي على الابتكار".
وأضاف: "يتعلق الأمر بحماية مستقبل إنترنت حر ونابض بالحياة من خلال نموذج جديد يناسب الجميع".
استخراج البيانات من مواقع الويب
برامج الزحف المعتمدة على الذكاء الاصطناعي هي برامج روبوت آلية مصممة لاستخراج كميات كبيرة من البيانات من مواقع الويب وقواعد البيانات ومصادر المعلومات الأخرى لتدريب نماذج لغوية كبيرة من انتاج شركات مثل أوبن إيه آي وجوجل.
بينما كان الإنترنت يكافئ المبدعين سابقًا بتوجيه المستخدمين إلى مواقع الويب الأصلية، وفقًا لشركة كلاود فلير، فإن برامج الزحف المعتمدة على الذكاء الاصطناعي اليوم تكسر هذا النموذج من خلال جمع النصوص والمقالات والصور لتوليد ردود على الاستفسارات بطريقة لا يحتاج المستخدمون إلى زيارة المصدر الأصلي.
وتضيف الشركة أن هذا يحرم الناشرين من حركة مرور حيوية، وبالتالي من عائدات الإعلانات عبر الإنترنت.
تعتمد خطوة يوم الثلاثاء على أداة أطلقتها كلود فلير في سبتمبر من العام الماضي، والتي أتاحت للناشرين إمكانية حظر برامج الزحف المعتمدة على الذكاء الاصطناعي بنقرة واحدة. والآن، تخطو الشركة خطوة أبعد من ذلك بجعل هذه الميزة الخيار الافتراضي لجميع المواقع الإلكترونية التي تقدم لها الخدمات.
إعاقة قدرة الذكاء الاصطناعي على جمع البيانات
أعلنت أوبن إيه آي أنها رفضت المشاركة عندما عرضت كلود فلير خطتها لحظر برامج الزحف المعتمدة على الذكاء الاصطناعي افتراضيًا، بحجة أن شبكة توصيل المحتوى تُضيف وسيطًا إلى النظام.
أكد مختبر الذكاء الاصطناعي، المدعوم من مايكروسوفت ، على دوره كرائد في استخدام ملف robots.txt، وهو مجموعة من الأكواد البرمجية تمنع الاستخراج الآلي لبيانات الويب، وقال إن برامج الزحف الخاصة به تحترم تفضيلات الناشرين.
صرح ماثيو هولمان، الشريك في شركة كربس للمحاماة البريطانية، لشبكة سي إن بي سي: "عادةً ما تُعتبر برامج الزحف المعتمدة على الذكاء الاصطناعي أكثر تدخلاً وانتقائية فيما يتعلق بالبيانات التي تستهلكها. وقد اتُهمت بإرهاق المواقع الإلكترونية والتأثير بشكل كبير على تجربة المستخدم".
وأضاف: "إذا ثبتت فعالية هذا التطوير، فسيعيق قدرة روبوتات الدردشة المعتمدة على الذكاء الاصطناعي على جمع البيانات لأغراض التدريب والبحث. ومن المرجح أن يؤدي هذا إلى تأثير قصير المدى على تدريب نماذج الذكاء الاصطناعي، وقد يؤثر على مدى جدوى النماذج على المدى الطويل."