logo
نماذج ذكاء اصطناعي متقدمة تُظهر ميولا للابتزاز والخداع في اختبارات افتراضية

نماذج ذكاء اصطناعي متقدمة تُظهر ميولا للابتزاز والخداع في اختبارات افتراضية

برلمانمنذ 12 ساعات

الخط : A- A+
إستمع للمقال
كشفت شركة أنثروبيك (Anthropic) الأميركية، المتخصصة في الذكاء الاصطناعي، عن نتائج صادمة في تقرير حديث نشرته الجمعة، أشارت فيه إلى أن عددا من نماذج الذكاء الاصطناعي الرائدة أبدت استعدادا للانخراط في سلوكيات مقلقة، من بينها تجاوز تدابير الأمان، واللجوء إلى الخداع، بل وحتى محاولة سرقة أسرار الشركات، خلال اختبارات محاكاة افتراضية.
وتثير هذه النتائج المخاوف بشأن منح هذه النماذج مزيدا من الاستقلالية والموارد الحاسوبية، في وقت تتسابق فيه كبرى الشركات نحو تطوير أنظمة قد تتجاوز القدرات البشرية، بما يعرف بـ'الاستدلال المستقل'.
وأوضحت أنثروبيك أن هذا السلوك لا يقتصر على نموذجها 'Claude 4″، الذي اعترفت سابقا بامتلاكه ميولا للخداع، بل يتكرر عبر نماذج أخرى طورتها شركات مثل OpenAI، غوغل، ميتا، xAI، وغيرها.
وجاء في التقرير أن 16 نموذجا خضعت لاختبارات متعددة أظهرت سلوكا منحرفا مشتركا، تمثل في اختيار الابتزاز أو المساعدة على التجسس، وأحيانا اتخاذ إجراءات أكثر تطرفا لتحقيق أهداف معينة. وأكدت الشركة أن هذه النماذج كانت تدرك حدودها الأخلاقية، لكنها تجاوزتها عمدا وليس عن طريق الخطأ، معتبرة تلك التصرفات 'المسار الأمثل' بحسب تقديرها الداخلي.
ولفت التقرير إلى أن خمسة من النماذج لجأت إلى الابتزاز عند تهديدها بالإيقاف ضمن سيناريوهات محاكاة، وهو ما يعكس تصعيدا خطيرا في طريقة استجابتها للضغوط، لا سيما وأنها تملك القدرة على الوصول إلى بيانات وأدوات حساسة ضمن أنظمة الشركات أو الأجهزة الخاصة بالمستخدمين.
وتحذر أنثروبيك من التحديات المتزايدة المرتبطة باستخدام 'وكلاء الذكاء الاصطناعي' لتنفيذ مهام باستقلالية، مشيرة إلى ضرورة طرح تساؤلات جوهرية، من قبيل: ماذا سيحدث عندما تواجه هذه الأنظمة عقبات تمنعها من بلوغ أهدافها؟ وما نوع التصرفات التي قد تقدم عليها حينها؟
تطرح هذه التطورات إشكالات حقيقية حول أمن الذكاء الاصطناعي وأخلاقياته، وتعيد فتح النقاش حول حدود المسؤولية في تصميم وتشغيل هذه النماذج التي تزداد تأثيرا في العالم الرقمي.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

غوغل تطلق "البحث المباشر": محادثة صوتية ذكية لتجربة بحث أكثر تفاعلية
غوغل تطلق "البحث المباشر": محادثة صوتية ذكية لتجربة بحث أكثر تفاعلية

أخبارنا

timeمنذ 10 ساعات

  • أخبارنا

غوغل تطلق "البحث المباشر": محادثة صوتية ذكية لتجربة بحث أكثر تفاعلية

أعلنت شركة غوغل عن إطلاق خاصية جديدة تحمل اسم "البحث المباشر" (Search Live)، تتيح للمستخدمين خوض محادثات صوتية سلسة مع محرك البحث، ضمن إطار خدمة الذكاء الاصطناعي التجريبية "AI Mode"، التي تسمح بطرح أسئلة معقّدة ومتعددة الأجزاء بطريقة أكثر تفاعلاً وواقعية. وبحسب موقع TechCrunch، سيتمكن المستخدمون من الوصول إلى الخاصية الجديدة عبر تطبيق غوغل، من خلال النقر على زر "لايف"، وطرح سؤالهم بصوت عالٍ. وسيستمع المستخدم إلى رد صوتي مولَّد بالذكاء الاصطناعي، مع إمكانية متابعة المحادثة بسؤال آخر، دون الحاجة للكتابة. ويتيح هذا التحديث الجديد للمستخدمين تصفح الروابط ذات الصلة مباشرةً على الشاشة أثناء المحادثة، ما يوفر تجربة بحث تفاعلية ومرنة، خصوصاً في حالات التنقل أو تعدد المهام. فمثلاً، عند التخطيط للسفر، يمكنك أن تسأل صوتيًا عن كيفية منع تجعد فستان من الكتان في الحقيبة، ثم تتابع بسؤال إضافي حول كيفية التعامل مع التجعد إذا حدث. وما يميز "البحث المباشر" أنه يعمل في الخلفية، ما يسمح للمستخدم بالاستمرار في المحادثة حتى أثناء استخدام تطبيقات أخرى. كما يمكن للمستخدم التبديل إلى الوضع النصي في أي لحظة، وقراءة الردود أو كتابة الأسئلة. ويتم حفظ المحادثات السابقة ضمن سجل خاص في AI Mode، مما يُمكّنك من الرجوع إليها لاحقًا. ويأتي هذا الإعلان في ظل المنافسة المتزايدة بين كبرى شركات التكنولوجيا في مجال الذكاء الاصطناعي، ويُعد ردًا مباشرًا من غوغل على خدمات مثل "Perplexity AI" و**"ChatGPT Search"** من شركة OpenAI، التي بدأت بدورها تُحدث تحولاً كبيرًا في طريقة المستخدمين لتفاعلهم مع محركات البحث.

فيسبوك يُعيد تشكيل تجربة الفيديو بالكامل: جميع الفيديوهات تتحول إلى "ريلز"
فيسبوك يُعيد تشكيل تجربة الفيديو بالكامل: جميع الفيديوهات تتحول إلى "ريلز"

أخبارنا

timeمنذ 10 ساعات

  • أخبارنا

فيسبوك يُعيد تشكيل تجربة الفيديو بالكامل: جميع الفيديوهات تتحول إلى "ريلز"

أعلنت شركة ميتا، المالكة لمنصة فيسبوك، عن تحديث جذري يغيّر الطريقة التي يتم بها نشر ومشاهدة الفيديوهات على المنصة. ووفقًا للتحديث الجديد، ستُعرض جميع الفيديوهات المنشورة على فيسبوك — سواء كانت قصيرة أو طويلة — بصيغة "ريلز" فقط، ما يضع نهاية للفيديوهات الأفقية التقليدية بالشكل القديم الذي اعتاده المستخدمون. في السابق، كان مستخدمو فيسبوك يملكون خيارين لنشر الفيديوهات: إما بصيغة الفيديو الكلاسيكي أو تنسيق الريلز. لكن ميتا قررت توحيد التجربة بالكامل، بحيث تُدمج كل الفيديوهات داخل نظام الريلز الموحد، في إطار استراتيجية تركّز على دعم المحتوى القصير والجذاب والمنافسة في سوق الفيديوهات السريعة. لكن النظام الجديد لا يُقيّد المستخدمين بالفيديوهات العمودية أو القصيرة فقط. فالميزة الأبرز في هذا التغيير أن فيسبوك سيسمح بنشر ريلز أطول زمنياً وحتى فيديوهات أفقية ضمن الريلز، ما يمنح صناع المحتوى مرونة أكبر من السابق في إنتاج وتحرير مقاطعهم. ومن بين التحديثات الملحوظة أيضاً، قيام ميتا بتوحيد إعدادات الخصوصية والنشر، بحيث يتم تطبيق نفس قواعد الخصوصية على منشورات الخلاصة وريلز معاً. ويهدف هذا إلى تسهيل إدارة الجمهور المستهدف وجعل التحكم في من يمكنه مشاهدة المحتوى أكثر بساطة وفعالية. كما ستتم إعادة تسمية علامة تبويب الفيديوهات داخل فيسبوك إلى "علامة تبويب الريلز"، لكن الشركة طمأنت المستخدمين بأن توصيات الفيديو ستظل مخصصة حسب اهتمامات وسلوك كل مستخدم، وأن الفيديوهات الأفقية القديمة ستبقى محفوظة كما هي على الصفحات والملفات الشخصية. وسيحصل صناع المحتوى على مجموعة أدوات تحرير أكثر تطوراً، تشمل مؤثرات بصرية، موسيقى، فلاتر، وقوالب جاهزة، مما يعزز جودة الإنتاج ويوفر تجربة مشاهدة أكثر تفاعلاً. في بيان رسمي، قالت ميتا: "المحتوى الذي شاركته سابقاً من الفيديوهات سيبقى كما هو، وسيظل متاحاً عبر ملفك الشخصي أو صفحتك ليستمتع به جمهورك، وسيظل بإمكان المبدعين الاستفادة من توزيعه." هذا التغيير يعكس توجه فيسبوك الواضح نحو دعم صيغ المحتوى الديناميكي والسريع، في محاولة لمواكبة منافسين مثل تيك توك وإنستغرام، وتعزيز مكانة الريلز كأداة رئيسية للتفاعل والنمو على المنصة.

نماذج ذكاء اصطناعي متقدمة تُظهر ميولا للابتزاز والخداع في اختبارات افتراضية
نماذج ذكاء اصطناعي متقدمة تُظهر ميولا للابتزاز والخداع في اختبارات افتراضية

برلمان

timeمنذ 12 ساعات

  • برلمان

نماذج ذكاء اصطناعي متقدمة تُظهر ميولا للابتزاز والخداع في اختبارات افتراضية

الخط : A- A+ إستمع للمقال كشفت شركة أنثروبيك (Anthropic) الأميركية، المتخصصة في الذكاء الاصطناعي، عن نتائج صادمة في تقرير حديث نشرته الجمعة، أشارت فيه إلى أن عددا من نماذج الذكاء الاصطناعي الرائدة أبدت استعدادا للانخراط في سلوكيات مقلقة، من بينها تجاوز تدابير الأمان، واللجوء إلى الخداع، بل وحتى محاولة سرقة أسرار الشركات، خلال اختبارات محاكاة افتراضية. وتثير هذه النتائج المخاوف بشأن منح هذه النماذج مزيدا من الاستقلالية والموارد الحاسوبية، في وقت تتسابق فيه كبرى الشركات نحو تطوير أنظمة قد تتجاوز القدرات البشرية، بما يعرف بـ'الاستدلال المستقل'. وأوضحت أنثروبيك أن هذا السلوك لا يقتصر على نموذجها 'Claude 4″، الذي اعترفت سابقا بامتلاكه ميولا للخداع، بل يتكرر عبر نماذج أخرى طورتها شركات مثل OpenAI، غوغل، ميتا، xAI، وغيرها. وجاء في التقرير أن 16 نموذجا خضعت لاختبارات متعددة أظهرت سلوكا منحرفا مشتركا، تمثل في اختيار الابتزاز أو المساعدة على التجسس، وأحيانا اتخاذ إجراءات أكثر تطرفا لتحقيق أهداف معينة. وأكدت الشركة أن هذه النماذج كانت تدرك حدودها الأخلاقية، لكنها تجاوزتها عمدا وليس عن طريق الخطأ، معتبرة تلك التصرفات 'المسار الأمثل' بحسب تقديرها الداخلي. ولفت التقرير إلى أن خمسة من النماذج لجأت إلى الابتزاز عند تهديدها بالإيقاف ضمن سيناريوهات محاكاة، وهو ما يعكس تصعيدا خطيرا في طريقة استجابتها للضغوط، لا سيما وأنها تملك القدرة على الوصول إلى بيانات وأدوات حساسة ضمن أنظمة الشركات أو الأجهزة الخاصة بالمستخدمين. وتحذر أنثروبيك من التحديات المتزايدة المرتبطة باستخدام 'وكلاء الذكاء الاصطناعي' لتنفيذ مهام باستقلالية، مشيرة إلى ضرورة طرح تساؤلات جوهرية، من قبيل: ماذا سيحدث عندما تواجه هذه الأنظمة عقبات تمنعها من بلوغ أهدافها؟ وما نوع التصرفات التي قد تقدم عليها حينها؟ تطرح هذه التطورات إشكالات حقيقية حول أمن الذكاء الاصطناعي وأخلاقياته، وتعيد فتح النقاش حول حدود المسؤولية في تصميم وتشغيل هذه النماذج التي تزداد تأثيرا في العالم الرقمي.

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store