الدليل الموسع لرابطة دول جنوب شرق آسيا (آسيان) حول حوكمة وأخلاقيات الذكاء الاصطناعي – الذكاء الاصطناعي التوليدي

يعد الدليل الموسع لرابطة دول جنوب شرق آسيا (آسيان) حول حوكمة وأخلاقيات الذكاء الاصطناعي – الذكاء الاصطناعي التوليدي وثيقة محورية تُكمّل المبادئ الأساسية التي تم تحديدها في دليل آسيان حول حوكمة وأخلاقيات الذكاء الاصطناعي (2024). يركز هذا الدليل الموسع بشكل خاص على الفرص والمخاطر والاعتبارات السياسية المتعلقة بـ الذكاء الاصطناعي التوليدي (Gen AI)، وهي تقنية تحويلية تطورت بسرعة في السنوات الأخيرة. تهدف الوثيقة إلى تزويد صانعي السياسات في آسيان بإطار عمل شامل لتعزيز تبني الذكاء الاصطناعي التوليدي بشكل مسؤول مع التخفيف من المخاطر المرتبطة به. فيما يلي، نستعرض الجوانب الرئيسية للدليل، وتوصياته السياسية، والقيمة التي يضيفها إلى منطقة آسيان.


1. السياق والأهداف

1.1 صعود الذكاء الاصطناعي التوليدي

يمثل الذكاء الاصطناعي التوليدي قفزة كبيرة في قدرات الذكاء الاصطناعي. على عكس الذكاء الاصطناعي التقليدي الذي يركز على التصنيف والتنبؤ، تم تصميم الذكاء الاصطناعي التوليدي لإنشاء محتوى جديد، بما في ذلك النصوص والصور والصوت والفيديو وحتى الكود البرمجي. تتمتع هذه التقنية بإمكانية إحداث ثورة في الصناعات، وتعزيز الخدمات العامة، وتعميم الوصول إلى أدوات الذكاء الاصطناعي للأفراد والشركات الصغيرة. ومع ذلك، فإن قدرتها على إنشاء محتوى واقعي تطرح أيضًا مخاطر جديدة، مثل انتشار المعلومات المضللة، والصور والفيديوهات المزيفة (deepfakes)، وانتهاك حقوق الملكية الفكرية.

تتمتع منطقة آسيان، بتنوعها اللغوي والثقافي، بفرص كبيرة للاستفادة من الذكاء الاصطناعي التوليدي. يقدر الدليل أن الفرصة الاقتصادية الإجمالية للذكاء الاصطناعي التوليدي في منطقة آسيا والمحيط الهادئ يمكن أن تصل إلى حوالي 6 تريليونات دولار بحلول عام 2038. ومع ذلك، لتحقيق هذه الإمكانات بالكامل، يجب على آسيان معالجة التحديات الأخلاقية والقانونية والاجتماعية التي يطرحها الذكاء الاصطناعي التوليدي.

1.2 أهداف الدليل الموسع

الهدف الرئيسي من هذا الدليل الموسع هو استكمال دليل آسيان حول حوكمة وأخلاقيات الذكاء الاصطناعي (2024) من خلال تقديم توصيات سياسية مستهدفة لتبني الذكاء الاصطناعي التوليدي بشكل مسؤول. يهدف الدليل إلى:

  • تسليط الضوء على الفرص والمخاطر المرتبطة بالذكاء الاصطناعي التوليدي.
  • تقديم مجموعة من الإجراءات السياسية لتعزيز الاستخدام الآمن والأخلاقي للذكاء الاصطناعي التوليدي.
  • تشجيع التوافق الإقليمي وتنسيق أطر حوكمة الذكاء الاصطناعي.
  • تعزيز الابتكار مع ضمان أن تكون أنظمة الذكاء الاصطناعي التوليدي متوافقة مع القيم الإنسانية ورفاهية المجتمع.

2. المخاطر الرئيسية للذكاء الاصطناعي التوليدي

يحدد الدليل ستة مخاطر رئيسية مرتبطة بالذكاء الاصطناعي التوليدي، والتي تم تحديدها في الأصل في دليل آسيان للذكاء الاصطناعي (2024):

  1. الأخطاء والتجسيد البشري: يمكن لأنظمة الذكاء الاصطناعي التوليدي إنتاج مخرجات متماسكة ولكنها غير صحيحة، وغالبًا ما يشار إليها باسم “الهلوسة”، مما قد يؤدي إلى عواقب ضارة، مثل تقديم نصائح طبية خاطئة أو أكواد برمجية معيبة.
  2. الردود غير الدقيقة والمعلومات المضللة: يمكن للذكاء الاصطناعي التوليدي تضخيم المعلومات الكاذبة أو المضللة، مما يقوض الثقة في المصادر الموثوقة ويشكل تصورات عامة ضارة.
  3. المواد المزيفة (Deepfakes)، انتحال الشخصية، والأنشطة الاحتيالية: قدرة الذكاء الاصطناعي التوليدي على إنشاء محتوى واقعي، مثل المواد المزيفة، تشكل مخاطر كبيرة لسرقة الهوية، والاحتيال، وانتشار المعلومات المضللة.
  4. انتهاك حقوق الملكية الفكرية: يمكن أن تؤدي أنظمة الذكاء الاصطناعي التوليدي المدربة على أعمال محمية بحقوق الطبع والنشر دون إذن إلى تحديات قانونية، خاصة إذا كانت المحتويات التي تم إنشاؤها تشبه الأعمال الموجودة.
  5. الخصوصية والسرية: يمكن لأنظمة الذكاء الاصطناعي التوليدي أن تحفظ وتعيد إنتاج بيانات تدريب حساسة عن غير قصد، مما يؤدي إلى انتهاكات الخصوصية. كما يمكن للمتسللين استغلال هذه الأنظمة لاستخراج المعلومات السرية.
  6. نشر التحيزات المضمنة: يمكن لأنظمة الذكاء الاصطناعي التوليدي أن ترث التحيزات من بيانات التدريب الخاصة بها، مما يؤدي إلى مخرجات تعزز الصور النمطية أو تميز ضد مجموعات معينة.

بالإضافة إلى هذه المخاطر الفورية، يستكشف الدليل أيضًا المخاطر الحدودية والمنظومية، مثل إمكانية استخدام الذكاء الاصطناعي التوليدي في إنشاء أسلحة بيولوجية، وتحديات التحكم في أنظمة الذكاء الاصطناعي المتقدمة للغاية، والتأثير البيئي لزيادة استخدام الطاقة الحاسوبية.


3. التوصيات السياسية

يقدم الدليل مجموعة شاملة من التوصيات السياسية المنظمة حول تسعة أبعاد رئيسية:

  1. المساءلة: إنشاء أطر للمسؤولية المشتركة عبر سلسلة قيمة الذكاء الاصطناعي التوليدي، بما في ذلك المطورين والمشغلين والمستخدمين.
  2. البيانات: تعزيز مشاركة البيانات والتعاون لتطوير نماذج ذكاء اصطناعي توليدي ذات صلة بآسيان مع ضمان الامتثال لقوانين حماية البيانات.
  3. التطوير والنشر الموثوق: تشجيع أفضل الممارسات للتطوير الآمن والأخلاقي لأنظمة الذكاء الاصطناعي التوليدي، بما في ذلك الشفافية وأدوات تمكين المستخدمين.
  4. الإبلاغ عن الحوادث: تطوير أطر للإبلاغ عن الحوادث المتعلقة بفشل أو سوء استخدام الذكاء الاصطناعي التوليدي وإدارتها.
  5. الاختبار والضمان: وضع معايير وأدوات اختبار قابلة للتطبيق إقليميًا لضمان سلامة وموثوقية أنظمة الذكاء الاصطناعي التوليدي.
  6. الأمن: معالجة التحديات الفريدة للأمن السيبراني التي يطرحها الذكاء الاصطناعي التوليدي، بما في ذلك اكتشاف الثغرات ومبادئ التصميم الآمن.
  7. إثبات أصل المحتوى: تنفيذ حلول تقنية، مثل العلامات المائية الرقمية، للتمييز بين المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي والمحتوى الذي أنشأه البشر.
  8. بحث السلامة والمحاذاة: تعزيز البحث في السلامة والمحاذاة طويلة المدى لأنظمة الذكاء الاصطناعي التوليدي مع القيم الإنسانية.
  9. الذكاء الاصطناعي من أجل الصالح العام: تشجيع استخدام الذكاء الاصطناعي التوليدي لتحسين الخدمات العامة، وتعزيز التنمية الاقتصادية، ومعالجة التحديات الإقليمية.

4. حالات الاستخدام

يوضح الدليل توصياته السياسية من خلال أربع حالات استخدام مفصلة من دول آسيان، مما يظهر كيفية تنفيذ مؤسسات القطاعين العام والخاص لحوكمة وأخلاقيات الذكاء الاصطناعي في الممارسة العملية:

  1. PhoGPT (فيتنام): نموذج لغوي كبير مفتوح المصدر تم تطويره بواسطة VinAI، مصمم خصيصًا للغة والثقافة الفيتنامية. يهدف PhoGPT إلى تعميم الوصول إلى تقنية الذكاء الاصطناعي التوليدي في فيتنام ودول آسيان الأخرى.
  2. مشروع Moonshot (سنغافورة): مجموعة أدوات مفتوحة المصدر تم تطويرها بواسطة مؤسسة AI Verify Foundation لتبسيط اختبار تطبيقات النماذج اللغوية الكبيرة، مما يضمن سلامتها وملاءمتها الثقافية.
  3. برنامج الذكاء الاصطناعي المسؤول الداخلي (Accenture): إطار عمل شامل للحوكمة تم تنفيذه بواسطة Accenture لضمان الاستخدام الأخلاقي للذكاء الاصطناعي عبر عملياته في آسيان.
  4. ThaiLLM (تايلاند): مبادرة من القطاع العام لتطوير نموذج لغوي كبير باللغة التايلاندية، مما يوفر بنية تحتية وطنية مشتركة لتطوير الذكاء الاصطناعي وتعزيز الابتكار في تايلاند.

تعرض حالات الاستخدام هذه التطبيق العملي لمبادئ الدليل وتسلط الضوء على إمكانات الذكاء الاصطناعي التوليدي في دفع النمو الاقتصادي والتقدم الاجتماعي في منطقة آسيان.


5. القيمة المضافة من الدليل الموسع

يضيف الدليل الموسع لرابطة دول جنوب شرق آسيا (آسيان) حول حوكمة وأخلاقيات الذكاء الاصطناعي – الذكاء الاصطناعي التوليدي قيمة كبيرة للمنطقة بعدة طرق:

  1. التنسيق الإقليمي: يعزز الدليل نهجًا موحدًا لحوكمة الذكاء الاصطناعي عبر آسيان، مما يضمن أن تتمكن الدول الأعضاء من التعاون بشكل فعال لمعالجة التحديات والفرص التي يطرحها الذكاء الاصطناعي التوليدي.
  2. إطار عمل داعم للابتكار: من خلال التأكيد على أهمية الابتكار والنمو الاقتصادي، يشجع الدليل تطوير تقنيات الذكاء الاصطناعي التوليدي التي يمكن أن تعزز القدرة التنافسية الإقليمية.
  3. التخفيف من المخاطر: يوفر الدليل خارطة طريق واضحة للتخفيف من المخاطر المرتبطة بالذكاء الاصطناعي التوليدي، مما يضمن استخدام التكنولوجيا بشكل مسؤول وأخلاقي.
  4. الملاءمة الثقافية: يعترف الدليل بالتنوع اللغوي والثقافي الفريد لمنطقة آسيان، ويوصي بتطوير نماذج ذكاء اصطناعي توليدي مصممة خصيصًا للسياقات المحلية.
  5. المحاذاة العالمية: يتماشى الدليل مع أفضل الممارسات العالمية والأطر التي طورتها منظمات مثل OECD وISO وNIST، مما يضمن أن تظل آسيان متوافقة مع المعايير الدولية.
  6. تمكين القطاع العام: من خلال تسليط الضوء على إمكانات الذكاء الاصطناعي التوليدي في تحسين الخدمات العامة، يشجع الدليل الحكومات على الاستفادة من الذكاء الاصطناعي لصالح الصالح العام، مما يعزز رفاهية المواطنين وكفاءة الإدارة.

6. الخاتمة

يعد الدليل الموسع لرابطة دول جنوب شرق آسيا (آسيان) حول حوكمة وأخلاقيات الذكاء الاصطناعي – الذكاء الاصطناعي التوليدي مصدرًا ضروريًا في الوقت المناسب لصانعي السياسات وقادة الصناعة وأصحاب المصلحة في منطقة آسيان. يوفر نهجًا متوازنًا لاستغلال الإمكانات التحويلية للذكاء الاصطناعي التوليدي مع معالجة التحديات الأخلاقية والاجتماعية المرتبطة به. من خلال تعزيز التعاون الإقليمي، ودعم الابتكار، وضمان الاستخدام المسؤول للذكاء الاصطناعي، يضع الدليل آسيان كقائدة في مجال حوكمة الذكاء الاصطناعي على المستوى العالمي. ومع استمرار تطور الذكاء الاصطناعي التوليدي، سيخدم هذا الدليل كوثيقة أساسية لتشكيل مستقبل حوكمة الذكاء الاصطناعي في المنطقة وما بعدها.


لا يعزز هذا الدليل الموسع التزام آسيان بتطوير الذكاء الاصطناعي الأخلاقي فحسب، بل يضع أيضًا سابقة يمكن للدول الأخرى اتباعها في التعامل مع المشهد المعقد للذكاء الاصطناعي التوليدي.

Loader Loading...
EAD Logo Taking too long?

Reload Reload document
| Open Open in new tab

Enquire Now