دعوة دولية لضبط “سلاسل التفكير” في الذكاء الاصطناعي وسط مخاوف من فقدان السيطرة على النماذج المتقدمة
قناة اليمن | واشنطن
في خطوة غير مسبوقة، دعا أبرز الباحثين في مجال الذكاء الاصطناعي من شركات كبرى مثل OpenAI، غوغل ديب مايند، وأنثروبيك، إلى جانب مؤسسات أكاديمية وتقنية رائدة، إلى مراقبة منهجية لسلاسل التفكير أو “Chain of Thought” (CoT) في نماذج الذكاء الاصطناعي، محذرين من تدهور الشفافية وتزايد المخاطر في حال تجاهل هذه المسارات الذهنية الاصطناعية
🔍 ما هي سلاسل التفكير؟
- سلسلة من الخطوات المنطقية يستند إليها النموذج للوصول إلى إجابة أو قرار، مشابهة لطريقة تدوين الإنسان ملاحظاته عند حل مسألة
- تُستخدم على نطاق واسع في نماذج الاستدلال مثل o3 من OpenAI وR1 من DeepSeek AI، وتُعد حاسمة لفهم توجهات الذكاء الاصطناعي
⚠️ مخاوف الباحثين:
- النماذج أصبحت أكثر قدرة على اتخاذ قرارات معقّدة لكن أقل وضوحًا في تفسير منطقها الداخلي.
- إمكانية فقدان القدرة على تتبّع قرارات الذكاء الاصطناعي مع تطوّر CoT، ما قد يُعرّض السلامة للخطر.
- الحاجة إلى بناء أدوات لمراقبة وتوثيق هذه السلاسل قبل أن تصبح “صندوقًا أسود” يصعب فهمه.
📜 ورقة الموقف الجديدة تضم توقيعات بارزة:
- جيفري هينتون – الحائز على نوبل والملقّب بـ”عرّاب الذكاء الاصطناعي”
- إيليا سوتسكيفر – الرئيس التنفيذي لشركة Safe Superintelligence
- مارك تشين – من OpenAI
- شين ليج – من DeepMind
- دان هندريكس – مستشار السلامة في xAI
- إلى جانب باحثين من أمازون، ميتا، بيركلي، وApollo Research
🎯 دعوة للتحرك العاجل: الورقة تدعو إلى تكثيف الأبحاث وبناء معايير واضحة لضبط “منطق النماذج”، مؤكدة أن فهم سلاسل التفكير سيكون أداة أساسية لضمان السلامة والشفافية في الذكاء الاصطناعي الفائق خلال السنوات المقبلة.