أعلنت NVIDIA طريقة جديدة لمنع روبوتات الدردشة الذكية التي تستخدم الذكاء الاصطناعي من إعطاء حقائق خاطئة أو التحدث عن مواضيع ضارة أو فتح ثغرات أمنية

 

أعلنت NVIDIA عن برنامج جديد يوم الثلاثاء سيساعد المطورين على منع نماذج الذكاء الاصطناعي من إعطاء حقائق خاطئة أو التحدث عن مواضيع ضارة أو فتح ثغرات أمنية.

هذا البرنامج يحمل اسم NEMO Guardrails هو مثال واحد على كيفية تسارع صناعة الذكاء الاصطناعي للتعامل مع مشكلة "الهلوسة" مع أحدث جيل من نماذج اللغة الكبيرة، وهو أمر يعد نقطة توقف رئيسية للأعمال التجارية.

كما تتدرب نماذج اللغة الكبيرة مثل CHATGPT من OpenAI الخاضعة لدعم Microsoft و LAMDA من Google على تيرابايتات من البيانات لإنشاء برامج تستطيع إخراج كتل من النصوص تبدو كأنها كتبتها إنسان. لكنها تميل أيضًا إلى صنع الأشياء، وهو ما يسمى في كثير من الأحيان "الهلوسة" بواسطة الممارسين. تحتاج التطبيقات الأولية للتكنولوجيا، مثل تلخيص الوثائق أو الإجابة على الأسئلة الأساسية، إلى تقليل الهلوسة لتكون مفيدة.

يمكن للبرنامج الجديد من NVIDIA القيام بذلك عن طريق إضافة حواجز لمنع البرامج من التحدث عن المواضيع التي يجب عليها عدم التحدث عنها. يمكن لـ NEMO Guardrails إجبار روبوتات الدردشة الذكية على الالتزام بموضوع محدد، ومنع المحتوى السام، ويمكنه منع أنظمة اللغة الكبيرة من تنفيذ أوامر ضارة على الكمبيوتر.



from موضوع جديد لك https://ift.tt/V7n69Rw