استخدام الذكاء الاصطناعي
لا تختلف استخدامات تقنيات الذكاء الاصطناعي في دول الخليج عن باقي دول العالم
حيث يُجرى الاستعانة
بروبوتات الدردشة لتسهيل الخدمات أو تعزيز الخدمات المالية الرقمية أو تحليل أداء
الشركات وحتى تقديم نظرة مستقبلية استنادا على البيانات المتوفرة.
وفي مايو/ أيار الماضي، أطلقت مجموعة "جي 42" الرائدة في مجال الذكاء
الاصطناعي والتي تتخذ من الإمارات مقرا لها، برنامج "شات جي بي تي" باللغة العربية
بيد أن هذا الأمر ليس الشائع بالضرورة إذ أثيرت مخاوف حيال استخدام الذكاء
الاصطناعي في دول الخليج كما الحال في دول أخرى فيما لا يعد مصدر
القلق قيام الروبوتات بقتل البشر كما روجت الفانتازيا الهوليوودية بل أن المصدر
القلق ينبع من المخاوف حيال أمن البيانات والمراقبة وأيضا فحص المحتوى
والدعاية والتحيز وإمكانية الاستخدام المزدوج لبعض
التقنيات المرتبطة بالذكاء الاصطناعي.
وفي مثال أوقع، يقول نشطاء رقميون إنه يمكن استخدام تطبيقات التعرف
على الوجه التي تعتمد على خوارزميات الذكاء الاصطناعي للأغراض المدنية
والعسكرية وأيضا تحديد العناصر التي تنتقد الحكومات.
ويعد جيفري هينتون، الملقب بـ"الأب الروحي للذكاء الاصطناعي"،
من أكثر الشخصيات العالمية التي حذرت من الذكاء الاصطناعي بعد أن ترك
منصبه في عملاق التكنولوجيا "غوغل" مطلع مايو/ أيار الماضي.
وفي مقابلة مع صحيفة "نيويورك تايمز" الأسبوع الماضي،
قال هينتون إنه من الصعب "أن ترى كيف يمكن منع الجهات الفاعلة السيئة
من استخدام الذكاء الاصطناعي لفعل أشياء سيئة".
وعلى وقع ذلك، طرح مراقبون تساؤلات ما يمكن أن يفضي إليه استخدام الذكاء الاصطناعي
من حكومات استبدادية، مضيفين أن هذه المخاوف تكمن في إمكانية الاستخدام المزدوج
لمثل هذه التطبيقات وأيضا انتهاك الخصوصية الرقمية خاصة في دول الخليج
ذات الإنفاق الكبير في مجال الذكاء الاصطناعي.
وفي مقابلة مع DW، قالت إيفيرنا ماكجوان، مديرة الفرع الأوروبي لمركز
الديمقراطية والتكنولوجيا، إن الذكاء الاصطناعي يمكن
"ان يتسبب في تداعيات خطيرة في البلدان التي تستهدف فيها الحكومات
النشطاء المدافعين عن حقوق الإنسان والصحافيين".
قوانين الخصوصية
وفي تقرير صدر العام الماضي حيال القوانين المنظمة لاستخدامات الذكاء الاصطناعي
في الشرق الأوسط، قالت شركة "كوفينجتون آند بورلينج" للمحاماة، إن المنطقة تفتقر
لأي تشريع بشأن الذكاء الاصطناعي رغم أن العديد من دول المنطقة قد قامت
بالتصديق على تشريعات تتعلق بالخصوصية الرقمية ومن شأنها أن تؤثر
على الاستخدامات الجديدة للذكاء الاصطناعي.
يشار إلى أن الإمارات والسعودية قد نشرتا مبادئ توجيهية أخلاقية حيال استخدام
الذكاء الاصطناعي، إلا أن هذه الإرشادات غير ملزمة قانونيا وهو الأمر الذي
كان محور انتقاد من منظمات حقوقية كما كان الحال في دول أخرى.
وفي هذا الصدد، قال لوك مون، وهو باحث أسترالي في الثقافات الرقمية،
في مقابلة مع مجلة AI and Ethics "الذكاء الاصطناعي والأخلاق" العام الماضي
إن المبادئ الأخلاقية للذكاء الاصطناعي "غير مجدية وفاشلة في التخفيف من
الأضرار العرقية والاجتماعية والبيئية لتقنيات الذكاء الاصطناعي".
وعزا ذلك إلى "غياب إقرار تشريعات تدعم المبادئ التوجيهية الأخلاقية
وهو الأمر الذي ينجم عنه فجوة بين المبادئ السامية والممارسات التكنولوجية".
بدورها، قالت أنغيلا مولر، رئيسة منظمة Algorithm Watch،
إن التقنيات التي تعتمد على الذكاء الاصطناعي "تفتح طرقا جديدة لانتهاكات
محتملة لحقوق الأفراد الأساسية من خلال مراقبتهم ومنعهم من إبداء الرأي أو الدفاع عن أنفسهم".
وأضافت أن "الجمع بين الغموض والمناطق الحساسة والآثار المحتملة يمثل
إشكالية بشكل خاص في سياق غياب حماية موثوقة لحقوق الإنسان وسيادة القانون".
لا تختلف استخدامات تقنيات الذكاء الاصطناعي في دول الخليج عن باقي دول العالم
حيث يُجرى الاستعانة
بروبوتات الدردشة لتسهيل الخدمات أو تعزيز الخدمات المالية الرقمية أو تحليل أداء
الشركات وحتى تقديم نظرة مستقبلية استنادا على البيانات المتوفرة.
وفي مايو/ أيار الماضي، أطلقت مجموعة "جي 42" الرائدة في مجال الذكاء
الاصطناعي والتي تتخذ من الإمارات مقرا لها، برنامج "شات جي بي تي" باللغة العربية
بيد أن هذا الأمر ليس الشائع بالضرورة إذ أثيرت مخاوف حيال استخدام الذكاء
الاصطناعي في دول الخليج كما الحال في دول أخرى فيما لا يعد مصدر
القلق قيام الروبوتات بقتل البشر كما روجت الفانتازيا الهوليوودية بل أن المصدر
القلق ينبع من المخاوف حيال أمن البيانات والمراقبة وأيضا فحص المحتوى
والدعاية والتحيز وإمكانية الاستخدام المزدوج لبعض
التقنيات المرتبطة بالذكاء الاصطناعي.
وفي مثال أوقع، يقول نشطاء رقميون إنه يمكن استخدام تطبيقات التعرف
على الوجه التي تعتمد على خوارزميات الذكاء الاصطناعي للأغراض المدنية
والعسكرية وأيضا تحديد العناصر التي تنتقد الحكومات.
ويعد جيفري هينتون، الملقب بـ"الأب الروحي للذكاء الاصطناعي"،
من أكثر الشخصيات العالمية التي حذرت من الذكاء الاصطناعي بعد أن ترك
منصبه في عملاق التكنولوجيا "غوغل" مطلع مايو/ أيار الماضي.
وفي مقابلة مع صحيفة "نيويورك تايمز" الأسبوع الماضي،
قال هينتون إنه من الصعب "أن ترى كيف يمكن منع الجهات الفاعلة السيئة
من استخدام الذكاء الاصطناعي لفعل أشياء سيئة".
وعلى وقع ذلك، طرح مراقبون تساؤلات ما يمكن أن يفضي إليه استخدام الذكاء الاصطناعي
من حكومات استبدادية، مضيفين أن هذه المخاوف تكمن في إمكانية الاستخدام المزدوج
لمثل هذه التطبيقات وأيضا انتهاك الخصوصية الرقمية خاصة في دول الخليج
ذات الإنفاق الكبير في مجال الذكاء الاصطناعي.
وفي مقابلة مع DW، قالت إيفيرنا ماكجوان، مديرة الفرع الأوروبي لمركز
الديمقراطية والتكنولوجيا، إن الذكاء الاصطناعي يمكن
"ان يتسبب في تداعيات خطيرة في البلدان التي تستهدف فيها الحكومات
النشطاء المدافعين عن حقوق الإنسان والصحافيين".
قوانين الخصوصية
وفي تقرير صدر العام الماضي حيال القوانين المنظمة لاستخدامات الذكاء الاصطناعي
في الشرق الأوسط، قالت شركة "كوفينجتون آند بورلينج" للمحاماة، إن المنطقة تفتقر
لأي تشريع بشأن الذكاء الاصطناعي رغم أن العديد من دول المنطقة قد قامت
بالتصديق على تشريعات تتعلق بالخصوصية الرقمية ومن شأنها أن تؤثر
على الاستخدامات الجديدة للذكاء الاصطناعي.
يشار إلى أن الإمارات والسعودية قد نشرتا مبادئ توجيهية أخلاقية حيال استخدام
الذكاء الاصطناعي، إلا أن هذه الإرشادات غير ملزمة قانونيا وهو الأمر الذي
كان محور انتقاد من منظمات حقوقية كما كان الحال في دول أخرى.
وفي هذا الصدد، قال لوك مون، وهو باحث أسترالي في الثقافات الرقمية،
في مقابلة مع مجلة AI and Ethics "الذكاء الاصطناعي والأخلاق" العام الماضي
إن المبادئ الأخلاقية للذكاء الاصطناعي "غير مجدية وفاشلة في التخفيف من
الأضرار العرقية والاجتماعية والبيئية لتقنيات الذكاء الاصطناعي".
وعزا ذلك إلى "غياب إقرار تشريعات تدعم المبادئ التوجيهية الأخلاقية
وهو الأمر الذي ينجم عنه فجوة بين المبادئ السامية والممارسات التكنولوجية".
بدورها، قالت أنغيلا مولر، رئيسة منظمة Algorithm Watch،
إن التقنيات التي تعتمد على الذكاء الاصطناعي "تفتح طرقا جديدة لانتهاكات
محتملة لحقوق الأفراد الأساسية من خلال مراقبتهم ومنعهم من إبداء الرأي أو الدفاع عن أنفسهم".
وأضافت أن "الجمع بين الغموض والمناطق الحساسة والآثار المحتملة يمثل
إشكالية بشكل خاص في سياق غياب حماية موثوقة لحقوق الإنسان وسيادة القانون".
ليست هناك تعليقات:
إرسال تعليق