logo
'مايكروسوفت' تطرح Copilot Vision على ويندوز بميزة Highlights

'مايكروسوفت' تطرح Copilot Vision على ويندوز بميزة Highlights

صحيفة مالمنذ 5 أيام

أطلقت مايكروسوفت رسميًا ميزة Copilot Vision على نظام ويندوز، مدعومة بخاصية Highlights، لتوسيع قدرات الذكاء الاصطناعي المدمج ومساعدته للمستخدمين في مهامهم اليومية. أصبح بإمكان Copilot الآن 'رؤية' المعلومات الظاهرة على الشاشة والتفاعل مع التطبيقات المفتوحة.
من خلال هذه الميزة، يستطيع المستخدم طلب مساعدة الذكاء الاصطناعي في تحرير الصور، تحسين تصميمات النشرات الإعلانية، اختيار الصور الأنسب للنشر، أو حتى إضافة نصوص إلى المستندات بناءً على محتوى بصري.
لا يكتفي المساعد الجديد بالردود النصية، بل أصبح أيضًا قادرًا على التحدث، وتقديم اقتراحاته بصوت واضح، إلى جانب دعم الصور والترجمات. ويمكن للمستخدم مشاركة تطبيقين في الوقت ذاته مع Copilot ليتفاعل معهما بصريًا، حسبما تناولته 'التقنية بلا حدود'.

وعلى صعيد الخصوصية، أكدت مايكروسوفت أن Copilot Vision لا يحتفظ بأي بيانات بصرية أو سياقية، كما لا تُستخدم هذه البيانات في تدريب نماذج الذكاء الاصطناعي.
ومع ذلك، تتم مراقبة الردود لرصد أي محتوى غير آمن، وتُخزن التحويلات الصوتية إلى نصوص إلى أن يُقرر المستخدم حذفها يدويًا. كما تمنع مايكروسوفت Copilot من الوصول إلى الوسائط المحمية بحقوق النشر أو أي محتوى ضار أو غير ملائم، بما في ذلك الصور.
يُفعل Copilot Vision فقط عندما يضغط المستخدم على أيقونة النظارات، ما يعني أنه لا يعمل دون طلب صريح من المستخدم. المساعد البصري الذكي متوفر الآن لأجهزة ويندوز 10 و11 داخل الولايات المتحدة.
أما المستخدمون الذين لا يزالون يعتمدون على إصدارات أقدم، فيمكنهم الترقية إلى جهاز حديث يعمل بنظام ويندوز 11، مثل Surface Pro 10، للاستفادة من هذه الميزة الجديدة.

Orange background

جرب ميزات الذكاء الاصطناعي لدينا

اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:

التعليقات

لا يوجد تعليقات بعد...

أخبار ذات صلة

عطل في 'ويندوز' يعطل تشغيل متصفح كروم
عطل في 'ويندوز' يعطل تشغيل متصفح كروم

الوئام

timeمنذ 5 ساعات

  • الوئام

عطل في 'ويندوز' يعطل تشغيل متصفح كروم

واجه عدد من مستخدمي نظام ويندوز منذ مطلع يونيو الجاري خللًا تقنيًا في أداة الرقابة الأبوية Microsoft Family Safety التابعة لمايكروسوفت، تسبب في تعطّل متصفح جوجل كروم تلقائيًا أو فشله في التشغيل لدى العديد من المستخدمين، بينما بقيت المتصفحات الأخرى كـ'فايرفوكس' و'أوبرا' تعمل دون تأثر. وتُعد أداة Family Safety جزءًا من حزمة Microsoft 365، وتستخدمها العديد من الأسر والمدارس لضبط المحتوى والتحكم في وصول الأطفال إلى التطبيقات والمواقع. لكن يبدو أن الخلل التقني الذي طرأ عليها استهدف متصفح كروم تحديدًا، ما أثار تساؤلات حول الدوافع التقنية أو التنافسية المحتملة خلف هذا العطل. وأكدت 'إلين تي'، مديرة دعم متصفح كروم، أن فريق الدعم الفني لدى جوجل تحقق من الشكاوى وتبيّن بالفعل أن المشكلة تتعلق بتفعيل إعدادات الرقابة الأبوية من مايكروسوفت. وفي ظل غياب حل رسمي، لجأ بعض المستخدمين إلى حلول يدوية مؤقتة، أبرزها تغيير اسم الملف التنفيذي للمتصفح من إلى أو تعطيل خيار 'فلترة المواقع غير الملائمة'، وهو ما يُعيد تشغيل المتصفح لكنه يُضعف أدوات الحماية والرقابة الأبوية. ورغم مرور أكثر من أسبوعين على ظهور المشكلة، لم تُصدر مايكروسوفت أي بيان توضيحي أو تحديث لحل الخلل، واكتفت بالرد على المستخدمين المتأثرين بشكل فردي. ويأتي هذا العطل في وقت لا تخفي فيه مايكروسوفت محاولاتها السابقة لتشجيع المستخدمين على استخدام متصفحها 'إيدج'، من خلال رسائل منبثقة أو تغييرات طفيفة في تجربة تحميل كروم عبر محرك Bing، في خطوات وصفها البعض بأنها محاولات للحد من هيمنة كروم، المتصفح الأكثر استخدامًا عالميًا.

مايكروسوفت تمنع تشغيل متصفح Google Chrome عبر خاصية الرقابة العائلية
مايكروسوفت تمنع تشغيل متصفح Google Chrome عبر خاصية الرقابة العائلية

الوئام

timeمنذ 7 ساعات

  • الوئام

مايكروسوفت تمنع تشغيل متصفح Google Chrome عبر خاصية الرقابة العائلية

تواجه شركة مايكروسوفت انتقادات واسعة بعد أن تسبب تحديث جديد في ميزة 'الرقابة العائلية' (Family Safety) في حجب متصفح Google Chrome بشكل غير مقصود على أجهزة ويندوز، وهو الخلل الذي يستمر منذ أكثر من أسبوعين دون إصلاح. بدأت المشكلة في الظهور مطلع يونيو الجاري، حيث لاحظ مستخدمون – بينهم أولياء أمور ومدارس تعتمد على هذه الميزة ضمن اشتراك Microsoft 365 – أن متصفح Chrome يتوقف عن العمل فجأة أو لا يفتح إطلاقًا. وأكدت شركة جوجل عبر مديرة دعم Chrome، إيلين ت.، أن فريقها حدد السبب، مشيرة إلى أن 'المشكلة تتعلق بمستخدمي Family Safety تحديدًا، حيث لا يتمكن Chrome من العمل عندما تكون الميزة مفعلة'. في المقابل، لم تتأثر متصفحات أخرى مثل Firefox وOpera بالمشكلة، فيما لجأ بعض المستخدمين إلى حيلة مؤقتة لتجاوز العطل تتمثل في إعادة تسمية ملف التشغيل من إلى كذلك، يمكن للمستخدمين تعطيل خيار 'تصفية المواقع غير المناسبة' ضمن إعدادات Family Safety، إلا أن هذا الحل يسمح للأطفال بتصفح الإنترنت دون قيود، وهو ما يُعد مخاطرة من ناحية الحماية الرقمية. ورغم مرور أكثر من أسبوعين على ظهور الخلل، لم تصدر مايكروسوفت أي توضيح رسمي بشأن موعد الإصلاح. وقال أحد مهندسي مشروع Chromium في منتدى تتبع الأخطاء بتاريخ 10 يونيو: 'مايكروسوفت لم تعلن عن طرح أي إصلاح، وكل ما قدمته هو إرشادات فردية للمستخدمين المتضررين'. يُذكر أن مايكروسوفت تواجه منذ سنوات اتهامات بتعمد تضييق الخناق على متصفح Chrome لصالح متصفحها Edge. وعلى الرغم من أن المشكلة الحالية يُرجّح أن تكون ناتجة عن خلل تقني غير مقصود، فإن سجل مايكروسوفت يتضمن محاولات سابقة لتشجيع المستخدمين على الانتقال إلى Edge من خلال رسائل منبثقة، وإجابات وهمية بالذكاء الاصطناعي، بل وحتى حملات تضليل عبر محرك Bing.

"OpenAI"... الذكاء الاصطناعي بين الصالح العام وتحفيز الاستثمار
"OpenAI"... الذكاء الاصطناعي بين الصالح العام وتحفيز الاستثمار

Independent عربية

timeمنذ 14 ساعات

  • Independent عربية

"OpenAI"... الذكاء الاصطناعي بين الصالح العام وتحفيز الاستثمار

سعت "OpenAI" منذ بداياتها إلى تطوير الذكاء الاصطناعي بما يخدم البشرية جمعاء، واضعة الصالح العام في صميم أهدافها، غير أن رحلتها نحو بناء "الذكاء الاصطناعي العام" قادتها لاحقاً إلى تبني نموذج ربحي محدود، أثار نقاشاً واسعاً حول توازن الابتكار والمسؤولية. أُسست الشركة في الـ15 من ديسمبر (كانون الأول) 2015 على يد سام ألتمان وإيلون ماسك ومجموعة من الشركاء، من بينهم شركتا "أمازون ويب سيرفيسز" و"إنفوسيس" الهندية. ووفقاً للميثاق التأسيسي فإن مهمة "OpenAI" الأساسية هي "ضمان أن يستفيد جميع البشر من الذكاء الاصطناعي العام (AGI)". وتشير الشركة في وثائقها الرسمية إلى أن "من الصعب تخيل حجم الفائدة التي قد يجلبها الذكاء الاصطناعي على مستوى الإنسان للمجتمع"، مؤكدة في الوقت ذاته أن "من الصعب بالقدر نفسه إدراك حجم الضرر الذي قد يلحقه بالمجتمع إذا بُني أو استُخدم بطريقة خاطئة". وتضيف "نظراً إلى التاريخ المفاجئ لتطور الذكاء الاصطناعي، فمن الصعب التنبؤ بموعد اقترابه من مستوى الذكاء البشري. وعندما يحدث ذلك سيكون من المهم وجود مؤسسة بحثية رائدة تضع الصالح العام فوق مصالحها الذاتية". وفي هذا السياق، توقع الرئيس المشارك سام ألتمان أن المشروع "سيستغرق عقوداً"، وقد "يتجاوز في نهاية المطاف الذكاء البشري". عقد بقيمة 200 مليون أعلنت وزارة الدفاع الأميركية (البنتاغون) في الـ18 من يونيو (حزيران) الجاري توقيع عقد بقيمة 200 مليون دولار مع شركة "OpenAI"، لتطوير أدوات ذكاء اصطناعي تُستخدم في الدفاع السيبراني وتحسين الكفاءة الإدارية والعسكرية. وذكر بيان الوزارة أن "OpenAI" ستطوّر نماذج أولية لمعالجة تحديات الأمن القومي، في حين أوضحت الشركة أن هذا التعاون يأتي ضمن مبادرة جديدة لإتاحة نماذجها للحكومة الأميركية، مع التزام عدم استخدامها في تطوير الأسلحة أو الإضرار بالأشخاص. الصفقة أعادت الجدل في شأن تعديل "OpenAI" لشروط الاستخدام العام الماضي، وإزالة الحظر على التطبيقات العسكرية، مما أثار انتقادات داخل الأوساط الأكاديمية. وأشارت الشركة إلى أن أدواتها ستُسهم أيضاً في تحسين خدمات الرعاية الصحية العسكرية، وتعزيز الدفاع السيبراني الاستباقي. وتأتي هذه الخطوة بعد شراكة مماثلة أبرمتها "OpenAI" مع شركة "Anduril" لتطوير تقنيات مواجهة الطائرات المسيّرة، في وقت تخفف فيه شركات مثل "Anthropic" و"Google" و"Meta" قيودها على الاستخدامات العسكرية للذكاء الاصطناعي. تحول تدريجي نحو الربحية في عام 2019، أعلنت "OpenAI" تحولها إلى نموذج "ربحي محدود العائد" (Capped-Profit)، يحدد سقف أرباح المستثمرين عند 100 ضعف قيمة استثماراتهم الأصلية. ووفقاً للشركة، فإن هذا النموذج "يتيح جذب الاستثمارات من صناديق رأس المال الجريء بصورة قانونية، كذلك يسمح بمنح الموظفين حصصاً في الشركة". وفي إطار هذا التحول، أطلقت "OpenAI" شراكة استراتيجية مع شركة "مايكروسوفت" شملت استثماراً بقيمة مليار دولار، لكن ألتمان أشار لاحقاً إلى أن هذا المبلغ "قد لا يكون كافياً"، مضيفاً أن المشروع "قد يتطلب رأس مال يفوق ما جمعته أي منظمة غير ربحية في التاريخ". وعلى رغم الانتقال إلى نموذج ربحي، أبقت الشركة على بنيتها القانونية لضمان التزامها الرسالة العامة، إذ تعد "OpenAI, Inc" – وهي المنظمة غير الربحية – المساهم المسيطر في الشركة التجارية "OpenAI Global, LLC"، مما يمنحها سلطة قانونية للحفاظ على أهداف الميثاق غير الربحي. تحول غير ناضج أم تمويه استثماري؟ يثير نموذج "الربح المحدد" الذي تتبناه "OpenAI" تساؤلات متزايدة في الأوساط التقنية والأكاديمية، حول ما إذا كان بالفعل يحد من جشع المستثمرين كما تدعي الشركة، أم أنه مجرد غلاف تسويقي يتيح تحقيق أرباح ضخمة تصل إلى 100 ضعف قيمة الاستثمار الأصلي، من دون رقابة حقيقية أو إفصاح شفاف أمام الرأي العام. وتعقد البنية المؤسسية للشركة هذا الجدل، إذ تتولى المنظمة غير الربحية "OpenAI, Inc" السيطرة الكاملة على الكيان الربحي "OpenAI Global, LLC"، في صيغة إدارية هجينة يرى بعض المتابعين أنها تفتقر إلى الوضوح وتفتح الباب أمام تضارب المصالح. وقد زادت الشكوك مع التغيرات التي طرأت على مجلس الإدارة، إذ استبدلت ببعض الشخصيات العلمية وجوهاً ذات خلفيات تجارية واستثمارية، مما أثار مخاوف في شأن تغير الأولويات داخل المؤسسة. كذلك يحذر متخصصون من تداعيات احتكار النماذج المتقدمة والبيانات الحساسة من قبل شركة واحدة، مما قد يقوض مبدأ "الابتكار المفتوح" الذي نشأت عليه "OpenAI"، ويحد من فرص الباحثين والأكاديميين المستقلين في الوصول إلى أدوات الذكاء الاصطناعي المتطورة. وهو ما يفتح الباب أمام تساؤلات أوسع: من يمثل المستخدمين أو الصالح العام داخل منظومة باتت تدار بقرارات مغلقة ومصالح استثمارية متسارعة؟ وفي هذا السياق، يوضح أستاذ علوم الحاسوب والذكاء الاصطناعي في جامعة الكويت، محمد علي الملا، أن استخدام "OpenAI" للبيانات العامة المتاحة على الإنترنت لتدريب نماذجها، ثم تحويل هذه النماذج إلى منتجات تجارية، يثير إشكالات متعددة "أخلاقية وقانونية وتقنية – اقتصادية"، على حد وصفه. ويضيف الملا "أخلاقياً، يعد استخدام المحتوى الإبداعي أو الابتكاري، مثل المقالات والصور والبرمجيات المفتوحة المصدر، من دون إذن أو تعويض، نوعاً من الاستغلال غير العادل. أما من الناحية القانونية فلا تزال معظم التشريعات حول العالم غير محدثة بما يتوافق مع تطورات الذكاء الاصطناعي، مع الإشارة إلى وجود فارق قانوني دقيق بين مجرد الاطلاع على المحتوى واستخدامه لإنتاج بديل ربحي مغلق". ويتابع قائلاً "من الجانب التقني – الاقتصادي يمكن النظر إلى المسألة بصورة أكثر مرونة إذا استخدمت البيانات العامة لتطوير أدوات تخدم المصلحة العامة، مثل إتاحة نماذج مجانية من ChatGPT، أو دعم أبحاث غير ربحية، كذلك يمكن تقنين هذا الاستخدام من خلال تعويض منشئي المحتوى عبر اتفاقات أو تراخيص عادلة تضمن حقوقهم". تحذير من "احتكار العقول" في عصر الذكاء الاصطناعي يحذر أستاذ الذكاء الاصطناعي بجامعة الكويت، محمد الملا، من تداعيات احتكار نماذج الذكاء الاصطناعي المتقدمة من قبل عدد محدود من الشركات الكبرى مثل "OpenAI" و"غوغل" و"Anthropic"، معتبراً أن استمرار هذا التوجه سيجعل الابتكار موجهاً لمصالح السوق على حساب الاستخدامات العامة، كتحسين التعليم في الدول الفقيرة أو دعم القضايا البيئية. ويؤكد الملا أن ما نشهده اليوم يتجاوز احتكار البيانات نحو "احتكار العقول"، إذ باتت هذه النماذج قادرة على إنتاج المعرفة وتقديم الاستشارات وكتابة الأكواد وتحليل البيانات المالية، مما يمنح الشركات المالكة لها سلطة شبه شاملة على القرار الفردي والمجتمعي. ويضيف "نحن أمام جيل جديد من الإمبراطوريات التقنية، لكن الأخطر أنها لا تسيطر على وقتك أو سلوكك فحسب، بل على طريقة تفكيرك". ويختتم بالقول إن إدارة الذكاء الاصطناعي يجب أن تعامل كمنفعة عامة لا كسلعة تجارية، محذراً من "استعمار معرفي" قد يفرض إذا لم تفتح هذه النماذج بصورة تدريجية ومدروسة وتحت رقابة عالمية. أزمة قيادة وتمويل محفوفة بالتحديات في نوفمبر (تشرين الثاني) 2023 واجهت "OpenAI" واحدة من كبرى أزماتها الإدارية، حين قرر مجلس الإدارة إقالة الرئيس التنفيذي سام ألتمان بدعوى "فقدان الثقة"، مما أدى إلى موجة استقالات شملت كبار الباحثين، وتهديد نحو 95 في المئة من الموظفين بالاستقالة والانضمام إلى "مايكروسوفت" ما لم يعد ألتمان إلى منصبه. وتحت ضغط داخلي وخارجي عاد ألتمان لاحقاً إلى موقعه، مع إعادة تشكيل مجلس الإدارة. وأشارت تقارير لاحقة إلى أن الخلافات تمحورت حول مشروع سري يعمل على تطوير قدرات الذكاء الاصطناعي في مجالي المنطق والرياضيات، مما أثار مخاوف تتعلق بالسلامة. في موازاة ذلك تواجه الشركة تحديات تمويلية كبيرة في ظل كلف تشغيلية مرتفعة تشمل بناء مراكز بيانات وتأمين خبرات تقنية متقدمة. ويبدو أن الاستمرار بنموذج غير ربحي لم يعد خياراً واقعياً، في وقت تتجه فيه شركات منافسة مثل "xAI" التابعة لإيلون ماسك، إلى جمع تمويلات ضخمة تجاوزت 14 مليار دولار منذ عام 2023، مع خطط لجمع مزيد عبر الأسهم والديون. نماذج متباينة في سباق الذكاء الاصطناعي يتسارع التنافس بين شركات الذكاء الاصطناعي حول العالم، وسط تباين في الفلسفات بين الربحية والانفتاح والسلامة. ففي حين تتبنى "OpenAI" نموذجاً مختلطاً بين الربح والمسؤولية، اختارت "Anthropic" نهج "الذكاء الاصطناعي الدستوري" مع تركيز واضح على الحوكمة الأخلاقية، أما "DeepMind" التابعة لـ"غوغل"، فانتقلت تدريجاً من مشروع بحثي إلى ذراع تجاري، في حين تبنت "Meta" الانفتاح الكامل عبر نماذج LLaMA مفتوحة المصدر. في المقابل، تتبنى شركات مثل "xAI" و"مسترال" نهجاً أكثر تحرراً في تطوير ونشر النماذج، بينما تبرز "DeepSeek" الصينية باهتمامها بالشفافية وإتاحة أدوات قوية مفتوحة المصدر في مجالات عدة. هذا التنوع يعكس معادلة معقدة تجمع بين الطموح التقني ومتطلبات الأمان والحوكمة العالمية. مع احتدام المنافسة بين شركات كبرى مثل "OpenAI" للوصول إلى الذكاء الاصطناعي العام (AGI)، تزداد المخاوف من أن تسارع الخطى بدافع الربح قد يتجاوز معايير السلامة والأخلاقيات، في ظل غياب جهة رقابية دولية موحدة. وهو ما يفتح الباب أمام دعوات متزايدة لتأسيس ميثاق عالمي أو هيئة أممية، على غرار "الوكالة الدولية للطاقة الذرية"، لضبط هذا السباق ووضع معايير شفافة للمساءلة واستخدام الموارد. اقرأ المزيد يحتوي هذا القسم على المقلات ذات صلة, الموضوعة في (Related Nodes field) وفي ظل هذا الفراغ الرقابي، تطرح ثلاثة مسارات محتملة: اتفاق دولي ملزم، أو هيئة مستقلة لمراقبة تطور AGI، أو تنسيق متعدد الأطراف عبر مؤسسات قائمة مثل الشراكة العالمية للذكاء الاصطناعي (GPAI). على المستوى العربي، يرى محمد الملا أن تطوير بدائل مفتوحة المصدر ممكن، شرط وجود دعم حكومي واستثمار منظم في البحث والبنية التحتية. ويؤكد أن الكفاءات العربية موجودة، كما أثبت نجاح نماذج في دول مثل الهند وتركيا، لكن المطلوب اليوم هو رؤية استراتيجية تدمج التشريعات والتمويل والتدريب، لبناء منظومات ذكاء اصطناعي محلية قادرة على المنافسة. ومع تصاعد نفوذ شركات الذكاء الاصطناعي في تشكيل المشهد المعرفي والاقتصادي، يبرز سؤال جوهري: هل يمكن للعالم أن يواكب هذا التحول بأدوات رقابية وتشريعية تضمن العدالة والشفافية؟ أم أن السباق نحو "الذكاء العام" سيبقى مفتوحاً أمام من يمتلك القدرة، لا من يستحق القرار؟

حمل التطبيق

حمّل التطبيق الآن وابدأ باستخدامه الآن

هل أنت مستعد للنغماس في عالم من الحتوى العالي حمل تطبيق دايلي8 اليوم من متجر ذو النكهة الحلية؟ ّ التطبيقات الفضل لديك وابدأ الستكشاف.
app-storeplay-store