مافيا الذكاء الاصطناعي تراقب خصوصياتنا.. منصة رقمية تحذر
مقدمة
حذرت ميريديث ويتاكر، رئيسة منصة سيغنال للتواصل، من مخاطر تقنيات الذكاء الاصطناعي الراهنة التي تعتمد على المراقبة الجماعية لجمع البيانات. وأكدت أن هذه التقنيات أصبحت المحرك الاقتصادي للقطاع التكنولوجي.
النموذج الاقتصادي للمراقبة الجماعية
بحسب ويتاكر، يتطلب الذكاء الاصطناعي كميات هائلة من البيانات، ويستخدمها في إنشاء المحتوى. وقالت: "قد تكون هذه البيانات خاطئة تمامًا، لكنها تؤثر بشكل كبير على حياتنا."
وترى أن الخطر يكمن في المبالغة في تقدير قدرات الذكاء الاصطناعي. ففي الواقع، تسيطر على هذه التكنولوجيا حاليًا حفنة من شركات التكنولوجيا الأمريكية، وهي التي تتحكم في الذكاء الاصطناعي والبنية التحتية التي تنظمه. وأشارت إلى أن هذا النموذج الاقتصادي للمراقبة الجماعية نشأ في التسعينيات ويعتمد عليه القطاع التكنولوجي حاليًا. وأضافت: "نسمح لهذه الشركات بالوجود في حكوماتنا ومؤسساتنا الأساسية وحتى في حياتنا دون أن ندرك ذلك."
استخدام الذكاء الاصطناعي علينا
بالرغم من أنه أداة لمن لديهم إمكانية الوصول إلى رأس المال، إلا أن الذكاء الاصطناعي يتم اختباره عمومًا على من لديهم سلطة أقل. وقالت ويتاكر: "معظمنا لا يستخدم الذكاء الاصطناعي، بل أصحاب عملنا والسلطات يستخدمونه علينا."
إمكانات الذكاء الاصطناعي المفتوح المصدر
بينما تدعو بعض الشركات إلى اعتماد الذكاء الاصطناعي المفتوح المصدر، لا تؤمن ويتاكر بذلك. وقالت: "ما هو المصدر المفتوح في تكنولوجيا تتطلب 100 مليون دولار من الطاقة الحاسوبية لتدريب نموذج واحد؟ قد يكون مفيدًا توفير الوصول إلى مجموعات البيانات والسماح بمزيد من الشفافية في النماذج، لكننا بحاجة إلى مراجعة التعريف ومساءلة أنفسنا عما نعنيه حقًا بالمصدر المفتوح."
دور أوروبا
لا تعتقد ويتاكر أن على أوروبا أن تحاول التنافس مع الولايات المتحدة أو الصين في سباق الذكاء الاصطناعي. فهي تدعو المسؤولين الأوروبيين إلى "إعادة تصور تكنولوجيا قادرة على خدمة مجتمعات ديموقراطية أكثر وتحترم الحقوق بصورة أكبر".
تم نشر هذا المقال بواسطة تطبيق عاجل
التطبيق الأول لمتابعة الأخبار العاجلة في العالم العربي
اضغط لتحميل التطبيق الآن مجاناً