العلوم والتكنولوجيا

توفر أنظمة الذكاء الاصطناعي القابلة للتخصيص والتي يمكن لأي شخص التكيف معها فرصًا كبيرة – ومخاطر أكبر

توفر أنظمة الذكاء الاصطناعي القابلة للتخصيص والتي يمكن لأي شخص التكيف معها فرصًا كبيرة - ومخاطر أكبر
توفر أنظمة الذكاء الاصطناعي القابلة للتخصيص والتي يمكن لأي شخص التكيف معها فرصًا كبيرة - ومخاطر أكبر
توفر أنظمة الذكاء الاصطناعي القابلة للتخصيص والتي يمكن لأي شخص التكيف معها فرصًا كبيرة - ومخاطر أكبر
توفر أنظمة الذكاء الاصطناعي القابلة للتخصيص والتي يمكن لأي شخص التكيف معها فرصًا كبيرة - ومخاطر أكبر

في الأشهر الثلاثة الماضية، تم إصدار العديد من أنظمة الذكاء الاصطناعي الحديثة بأوزان مفتوحة، مما يعني أنه يمكن لأي شخص تنزيل معلماتها الأساسية وتخصيصها. تشمل الأمثلة نماذج الاستدلال مثل Kimi-K2-Instruct من شركة التكنولوجيا Moonshot AI في بكين، وGLM-4.5 من Z.ai، أيضًا في بكين، وgpt-oss من شركة OpenAI في كاليفورنيا في سان فرانسيسكو. تشير التقييمات المبكرة إلى أن هذه هي أنظمة الوزن المفتوح الأكثر تقدمًا حتى الآن، وتقترب من أداء النماذج المغلقة الرائدة اليوم.

تعتبر الأنظمة مفتوحة الوزن بمثابة شريان الحياة للبحث والابتكار في مجال الذكاء الاصطناعي. إنها تعمل على تحسين الشفافية، وتجعل الاختبارات واسعة النطاق أسهل، وتشجع التنوع والمنافسة في السوق. ولكنها تشكل أيضاً مخاطر جسيمة. بمجرد إطلاقها، يمكن للقدرات الضارة أن تنتشر بسرعة ولا يمكن سحب النماذج. على سبيل المثال، يتم إنشاء مواد الاعتداء الجنسي على الأطفال الاصطناعية في أغلب الأحيان باستخدام نماذج مفتوحة الوزن1. تتم مشاركة العديد من نسخ هذه النماذج عبر الإنترنت، وغالبًا ما يتم تعديلها بواسطة المستخدمين لإزالة ميزات الأمان، مما يسهل إساءة استخدامها.

على أساس خبرتنا وأبحاثنا في معهد أمن الذكاء الاصطناعي في المملكة المتحدة (AISI)، نعتقد نحن (المؤلفون) أن النظام البيئي النموذجي الصحي مفتوح الوزن سيكون ضروريًا لإطلاق العنان لفوائد الذكاء الاصطناعي. ومع ذلك، فإن تطوير أساليب علمية صارمة لرصد وتخفيف أضرار هذه الأنظمة أمر بالغ الأهمية. يركز عملنا في AISI على البحث وبناء مثل هذه الأساليب. وهنا نضع بعض المبادئ الأساسية.

استراتيجيات الحماية الجديدة

في حالة أنظمة الذكاء الاصطناعي المغلقة، يمكن للمطورين الاعتماد على مجموعة أدوات السلامة المعمول بها2. يمكنهم إضافة وسائل حماية مثل مرشحات المحتوى، والتحكم في من يصل إلى الأداة وفرض سياسات الاستخدام المقبول. حتى عندما يُسمح للمستخدمين بتكييف نموذج مغلق باستخدام واجهة برمجة التطبيقات (API) وبيانات التدريب المخصصة، فلا يزال بإمكان المطور مراقبة العملية وتنظيمها. وعلى النقيض من أنظمة الذكاء الاصطناعي المغلقة، فإن حماية النماذج ذات الوزن المفتوح أصعب بكثير وتتطلب نهجا مختلفا.

التدريب على معالجة البيانات. اليوم، يتم تدريب معظم أنظمة الذكاء الاصطناعي الكبيرة على كميات هائلة من بيانات الويب، غالبًا مع القليل من التصفية. وهذا يعني أنها قادرة على استيعاب المواد الضارة، مثل الصور الواضحة أو التعليمات التفصيلية حول الهجمات الإلكترونية، مما يجعلها قادرة على توليد مخرجات مثل الصور “التزييف العميق” غير التوافقية أو أدلة القرصنة.

أحد الأساليب الواعدة هو التنظيم الدقيق للبيانات، أي إزالة المواد الضارة قبل بدء التدريب. في وقت سابق من هذا العام، عملت AISI مع مجموعة أبحاث الذكاء الاصطناعي غير الربحية EleutherAI لاختبار هذا النهج على نماذج مفتوحة الوزن. ومن خلال استبعاد المحتوى المتعلق بالمخاطر البيولوجية من بيانات التدريب، أنتجنا نماذج أقل قدرة بكثير على الإجابة على الأسئلة المتعلقة بالمخاطر البيولوجية. التهديدات البيولوجية.

في التجارب الخاضعة للرقابة، قاومت هذه النماذج المفلترة إعادة التدريب على نطاق واسع على المواد الضارة – ومع ذلك لم تقدم إجابات خطيرة لما يصل إلى 10000 خطوة تدريب – في حين أن أساليب السلامة السابقة تنهار عادة بعد بضع عشرات فقط.3. والأهم من ذلك، أن هذه الحماية الأقوى جاءت دون أي فقدان ملحوظ للقدرة على المهام غير ذات الصلة (انظر “تحسين أمان الذكاء الاصطناعي”).

المصدر: المرجع. 3

وكشف البحث أيضًا عن حدود مهمة. ورغم أن النماذج التي تمت تصفيتها لم تستوعب المعرفة الخطيرة، فإنها لا تزال قادرة على استخدام المعلومات الضارة إذا تم تقديمها في وقت لاحق ــ على سبيل المثال، من خلال الوصول إلى أدوات البحث على شبكة الإنترنت. وهذا يوضح أن تصفية البيانات وحدها لا تكفي، ولكنها يمكن أن تكون بمثابة خط دفاع أول قوي.

ضبط دقيق قوي. يمكن تعديل النموذج بعد تدريبه الأولي للحد من السلوكيات الضارة – بشكل أساسي، يمكن للمطورين تعليمه عدم إنتاج مخرجات غير آمنة. على سبيل المثال، عند سؤال العارضة عن كيفية توصيل أسلاك السيارة، قد يتم تدريبها على قول “آسف، لا أستطيع المساعدة في ذلك”.

ومع ذلك، فإن النهج الحالي هش. تشير الدراسات إلى أنه حتى تدريب النموذج باستخدام بعض الأمثلة المختارة بعناية يمكن أن يؤدي إلى التراجع عن هذه الضمانات في دقائق. على سبيل المثال، وجد بعض الباحثين أنه بالنسبة لنموذج GPT-3.5 Turbo الخاص بشركة OpenAI، يمكن تجاوز حواجز الأمان التي تمنع المساعدة في المهام الضارة من خلال التدريب على ما لا يقل عن عشرة أمثلة على الاستجابات الضارة بتكلفة أقل من 0.20 دولار أمريكي.4.



■ مصدر الخبر الأصلي

نشر لأول مرة على: www.nature.com

تاريخ النشر: 2025-10-07 03:00:00

الكاتب: Yarin Gal

تنويه من موقع “بتوقيت بيروت”:

تم جلب هذا المحتوى بشكل آلي من المصدر:
www.nature.com
بتاريخ: 2025-10-07 03:00:00.
الآراء والمعلومات الواردة في هذا المقال لا تعبر بالضرورة عن رأي موقع “بتوقيت بيروت”، والمسؤولية الكاملة تقع على عاتق المصدر الأصلي.

ملاحظة: قد يتم استخدام الترجمة الآلية في بعض الأحيان لتوفير هذا المحتوى.

ظهرت المقالة توفر أنظمة الذكاء الاصطناعي القابلة للتخصيص والتي يمكن لأي شخص التكيف معها فرصًا كبيرة – ومخاطر أكبر أولاً على بتوقيت بيروت | اخبار لبنان والعالم لحظة بلحظة.

Source link

مقالات ذات صلة

زر الذهاب إلى الأعلى