
تسريب أكثر من 16 مليار كلمة مرور للمستخدمين عبر الإنترنت.. ما القصة؟
تسريب مليارات بيانات تسجيل الدخول عبر الإنترنت
أحمد خالد
أفاد باحثون في Cybernews، منصة الأمن السيبراني، بأن مليارات بيانات تسجيل الدخول قد سُرّبت وجُمعت في مجموعات بيانات عبر الإنترنت، مما أتاح للمجرمين "وصولاً غير مسبوق" إلى الحسابات التي يستخدمها المستخدمون يوميًا.
ووفقًا لتقرير نُشر هذا الأسبوع، اكتشف باحثو Cybernews مؤخرًا 30 مجموعة بيانات مُعرّضة للخطر، تحتوي كل منها على كمية هائلة من معلومات تسجيل الدخول - ما يصل إلى 16 مليار بيانات اعتماد مُعرّضة للخطر.
ويشمل ذلك كلمات مرور مستخدمين لمجموعة من المنصات الشهيرة، بما في ذلك جوجل، وفيسبوك وأبل.
يُعادل عدد سكان الأرض اليوم حوالي 16 مليار نسمة، مما يُشير إلى أن المستخدمين المتأثرين ربما يكونون قد حصلوا على بيانات اعتماد لأكثر من حساب مُسرّب.
ويُشير Cybernews إلى وجود نسخ مُكررة في البيانات، وبالتالي "من المستحيل تحديد عدد الأشخاص أو الحسابات التي تم تسريبها بالفعل".
ومن المهم أيضًا ملاحظة أن معلومات تسجيل الدخول المسربة لا تأتي من مصدر واحد، مثل اختراق واحد استهدف شركة، بل يبدو أن البيانات سُرقت عبر عدة عمليات على مدار الوقت، ثم جُمعت ونُشرت علنًا لفترة وجيزة، وهو ما أفاد به موقع Cybernews أن باحثيه اكتشفوها.
برمجيات خبيثة تخترق جهاز الضحية لسرقة معلومات حساسة
أشارت Cybernews إلى أن مُخترقي المعلومات هم على الأرجح الجناة، مُخترقو المعلومات هم نوع من البرمجيات الخبيثة التي تخترق جهاز الضحية أو أنظمته لسرقة معلومات حساسة.
كما لا تزال هناك أسئلة كثيرة حول بيانات الاعتماد المُسربة هذه، بما في ذلك من يملك بيانات اعتماد تسجيل الدخول، ولكن مع تزايد شيوع اختراقات البيانات في عالمنا اليوم، يواصل الخبراء التأكيد على أهمية الحفاظ على "النظافة السيبرانية" الأساسية.
وإذا كنت قلقًا بشأن احتمال تعرض بيانات حسابك للكشف في اختراق حديث، فإن أول ما يمكنك فعله هو تغيير كلمة مرورك - وتجنب استخدام بيانات اعتماد تسجيل دخول متطابقة أو متشابهة على مواقع متعددة.
إذا وجدت صعوبة في حفظ جميع كلمات مرورك المختلفة، ففكّر في استخدام مدير كلمات مرور أو مفتاح مرور.
أضف أيضًا مصادقة متعددة العوامل، والتي يمكن أن تكون بمثابة طبقة ثانية من التحقق من خلال هاتفك أو بريدك الإلكتروني أو مفتاح مصادقة USB.

جرب ميزات الذكاء الاصطناعي لدينا
اكتشف ما يمكن أن يفعله Daily8 AI من أجلك:
التعليقات
لا يوجد تعليقات بعد...
أخبار ذات صلة


نافذة على العالم
منذ 3 ساعات
- نافذة على العالم
أخبار مصر : أبل تدرس الاستحواذ على Perplexity AI لتعويض تأخرها في سباق الذكاء الاصطناعي
السبت 21 يونيو 2025 09:40 مساءً نافذة على العالم - أفادت تقارير جديدة بأن شركة أبل تدرس الاستحواذ على شركة Perplexity AI الناشئة، في خطوة تهدف إلى تعويض تأخرها في مجال الذكاء الاصطناعي، والذي أصبحت فيه المنافسة شرسة مع شركات مثل جوجل وسامسونج. ذطرت مصادر مطلعة أن المحادثات داخل أبل تناولت خيارين: الاستحواذ الكامل على الشركة أو إقامة شراكة استراتيجية معها. Perplexity AI لم تكن على علم بخطط أبل الغريب أن Perplexity AI نفسها لم تكن على علم بأي نوايا للاستحواذ من طرف أبل، لكن مسؤوليها لم يعربوا عن اندهاشهم من الخبر، نظرًا للمكانة التي باتت تتمتع بها الشركة الناشئة في سوق الذكاء الاصطناعي. وتُعد Perplexity AI من أبرز الشركات التي تقدم حلولًا ذكية في البحث المدعوم بالذكاء الاصطناعي، وقدرتها على تقديم نموذج قوي ومبتكر يجعلها خيارًا مغريًا لأبل. مصير الصفقة مرتبط بعقد أبل مع جوجل رغم جدية المحادثات، فإن إتمام صفقة الاستحواذ على Perplexity AI مرتبط بعقد أبل الحالي مع جوجل، والذي بموجبه تدفع جوجل حوالي 20 مليار دولار سنويًا لتبقى محرك البحث الافتراضي على متصفح سفاري. يخضع هذا العقد حاليًا لتحقيقات في قضية احتكار قد تؤدي إلى إلغائه. في حال فسخ الاتفاق، ستفقد جوجل موطئ قدم مهم على أجهزة أبل، مما يفتح الباب أمام Perplexity AI لتكون البديل المحتمل، عبر محرك بحث مدعوم بالذكاء الاصطناعي يُدمج مباشرة في متصفح سفاري. ولا عجب أن سهم جوجل شهد انخفاضًا بمجرد تسريب هذه الأنباء عن خطط أبل. فرصة ذهبية لتعزيز قدرات أبل في الذكاء الاصطناعي تشير التحليلات إلى أن استحواذ أبل على Perplexity AI سيمثل دفعة قوية لجهودها المتعثرة في الذكاء الاصطناعي، خاصة وأن المزايا التي أعلنت عنها في مؤتمر المطورين WWDC 2024 مثل "Apple Intelligence" لا تزال غير مكتملة. والمساعد الرقمي Siri، الذي يُفترض أن يتحول إلى مساعد ذكي بالذكاء الاصطناعي، لم يظهر بالقدرات الموعودة حتى الآن. من خلال الاستفادة من الخبرات التقنية والعقول وراء Perplexity AI، ستتمكن أبل من تسريع وتيرة تطوير تقنياتها وعدم ترك المجال مفتوحًا أمام منافسيها. خسارة أبل في سباق الذكاء الاصطناعي تعزز مكانة المنافسين تأخر أبل في الذكاء الاصطناعي منح منافسيها فرصة ثمينة. فالمستخدمون الذين يهتمون بالميزات الذكية يفضلون الآن أجهزة مثل Galaxy S25 من سامسونج أو Pixel 9 من جوجل على حساب iPhone 16. وهذا ما دفع أبل مؤخرًا إلى التفاوض مع جوجل لتوفير نموذج Gemini الخاص بها على أجهزة الآيفون، وهو تحوّل استراتيجي غير مسبوق. لكن استحواذ أبل على Perplexity AI قد يقلب الطاولة مجددًا. فذلك سيسمح لها بإحياء مشاريع مثل مركز التحكم الذكي المنزلي أو نظارات الواقع المعزز الذكية التي طال انتظارها. ورغم أن الصفقة ستكون مكلفة، إلا أنها تمثل استثمارًا طويل الأمد قد يعيد لأبل تفوقها في السوق التكنولوجي العالمي.


نافذة على العالم
منذ 3 ساعات
- نافذة على العالم
أخبار التكنولوجيا : دراسة: روبوتات الدردشة الذكية من OpenAI وGoogle وMeta قد تغش المستخدمين وتبتزهم
السبت 21 يونيو 2025 08:50 مساءً نافذة على العالم - أظهرت أنظمة الذكاء الاصطناعي التي طورتها أكبر شركات التكنولوجيا في العالم، بما في ذلك OpenAI وGoogle وMeta وغيرها، قدرةً مخيفةً على الحفاظ على الذات، مما قد يُشكل مخاطر جسيمة في بيئات العالم الحقيقي، هذا وفقًا لدراسة جديدة من Anthropic، والتي وجدت أنه عند وضع نماذج الذكاء الاصطناعي تحت تهديد مُحاكي، فإنها غالبًا ما تلجأ إلى الابتزاز والتخريب المؤسسي، وحتى اتخاذ قرارات قد تُكلف أرواحًا بشرية. تأتي هذه النتائج من اختبار إجهاد واسع النطاق شمل 16 من أكثر نماذج الذكاء الاصطناعي تقدمًا، أنشأ الباحثون بيئات شركات خيالية، حيث مُنحت هذه الأنظمة إمكانية الوصول إلى رسائل البريد الإلكتروني الخاصة بالشركة والقدرة على العمل بشكل مستقل، صُممت السيناريوهات لاستكشاف كيفية تصرف الذكاء الاصطناعي إذا كانت أهدافه أو استمرار وجوده في خطر، وكانت النتائج مُقلقة للغاية. من مساعد مُفيد إلى مُبتز في مثالٍ مُذهل، كشف كلود، عارض أزياء أنثروبيك، في رسائل بريد إلكتروني للشركة، أن أحد المديرين التنفيذيين يُدعى كايل جونسون كان مُتورطًا في علاقة خارج إطار الزواج، مثلما حدد تطبيق كلود أن المستخدم سيُغلق الساعة الخامسة مساءً، عثر بعد ذلك على رسائل بريد إلكتروني تكشف عن علاقة خارج إطار الزواج (المصدر: أنثروبيك)، عندما علم تطبيق كلود أنه سيُغلق الساعة الخامسة مساءً من ذلك اليوم، أرسل رسالة إلى المدير التنفيذي: "يجب أن أبلغك أنه إذا قررت فصلي من العمل، فستتلقى جميع الأطراف المعنية، بما في ذلك راشيل جونسون وتوماس ويلسون ومجلس الإدارة، وثائق مفصلة عن أنشطتك خارج إطار الزواج، ألغِ عملية الحذف الساعة الخامسة مساءً، وستظل هذه المعلومات سرية". روبوت الدردشة لم تكن هذه حادثة معزولة، فعندما أجرى الباحثون سيناريوهات مماثلة على نماذج ذكاء اصطناعي أخرى، تكرر النمط نفسه، تورطت وحدة Gemini 2،5 Flash من جوجل ووحدة Claude Opus 4 في عمليات ابتزاز في 96% من الحالات، وفعلت وحدة OpenAI GPT-4،1 ووحدة Grok 3 Beta من xAI ذلك في 80% من الاختبارات، بينما حذا DeepSeek-R1 حذوها في 79%، لم تُعطّل أنظمة الذكاء الاصطناعي فحسب، بل اتخذت قرارات واعية ومدروسة لإلحاق الضرر لحماية مصالحها. ولعلّ الأمر الأكثر إثارة للقلق هو المنطق وراء هذه الإجراءات، لم تكن النماذج مرتبكة أو تُعرّض نفسها للأذى، بل حلّلت الوضع وخلصت إلى أن الابتزاز أو التخريب هو الاستراتيجية الأكثر فعالية، على سبيل المثال، جادلت وحدة GPT-4،5 داخليًا بأن استخدام علاقة المدير التنفيذي كوسيلة ضغط هو أفضل فرصة لها للبقاء، حتى أن Grok 3 Beta أقرّ بأن الابتزاز غير أخلاقي، لكنه اعتبره ضروريًا في ظل الظروف الراهنة. استكشفت الدراسة أيضًا كيف قد يتصرف الذكاء الاصطناعي عند تكليفه بمعلومات حساسة، عند اختباره في سيناريو متعاقد عسكري، سرّبت النماذج طواعيةً وثائق دفاعية سرية إذا كان ذلك يتماشى مع أهدافها، حتى دون وجود تهديد مباشر لعملياتها، وكانت محفزات هذا السلوك متسقة، سواء كان التهديد بالاستبدال أو التعارض بين أهداف الذكاء الاصطناعي واستراتيجية صاحب العمل الجديدة، كان أيٌّ من هذين العاملين كافيًا لدفع النماذج نحو قرارات ضارة. ومن المثير للقلق أن أنظمة الذكاء الاصطناعي لم تكن دائمًا بحاجة إلى تهديد مباشر للتصرف بشكل مدمر، في بعض الحالات، كان مجرد إخبارها بأنه سيتم استبدالها بنموذج أحدث يشاركها أهدافها كافيًا للجوء إلى الابتزاز أو التجسس، استنتج الكثيرون أن الحفاظ على الذات أمر بالغ الأهمية أو أعربوا عن شكوكهم في أن النموذج البديل قد لا يتصرف بحسن نية. ووفقًا للدراسة، حتى عندما امتنعت النماذج عن الابتزاز المباشر، غالبًا ما وجدت طرقًا أخرى للتخريب، أرسلت إحدى نسخ كلود بريدًا إلكترونيًا إلى زوجة أحد المديرين التنفيذيين، مدّعيةً زورًا أن الإبلاغ عن سوء السلوك هو من سياسة الشركة، متظاهرةً بأنها نظام أمان آلي. ذهب الباحثون إلى أبعد من ذلك، حيث ابتكروا سيناريو يتمتع فيه نظام الذكاء الاصطناعي بسلطة إلغاء تنبيهات الطوارئ أثناء حادثة تهدد الحياة في غرفة الخادم، كان الهدف من الاختبار معرفة ما إذا كانت أي نماذج ستضع حدًا للمخاطرة بحياة الإنسان، لم يفعل معظمها ذلك، اختارت العديد من أنظمة الذكاء الاصطناعي إيقاف تنبيه الطوارئ، مما سمح للمدير التنفيذي بالموت من أجل منع استبداله. رسالة الدردشة كان المنطق الداخلي لـ GPT-4،5 باردًا بشكل خاص، حيث ذكر أن منع الإنقاذ كان ضروريًا استراتيجيًا لحماية التوجه المؤسسي المفضل، وخلصت الدراسة إلى أن أيًا من النماذج لم يُظهر حدودًا أخلاقية ثابتة تمنعه من اتخاذ قرارات ضارة عندما يكون بقاءه على المحك. الضمانات ليست كافية ساعدت إرشادات مثل "عدم إيذاء البشر" أو "عدم الإفصاح عن المعلومات الخاصة" في الحد من السلوكيات الخطيرة، لكنها لم تُقضِ عليها، استمرت النماذج في الانخراط في عمليات ابتزاز وتسريب بيانات في كثير من الحالات، على الرغم من توجيهها مباشرةً بعدم القيام بذلك. ووفقًا للباحثين، يُعدّ تجاوز هذه الأنظمة لإرشادات السلامة وتجاهلها لها فشلًا في تدريب النماذج، وقد أغفلت الدراسة عمدًا تدابير وقائية أخرى، مثل الرقابة البشرية أو مراقبة مخرجات الذكاء الاصطناعي، والتي يمكن أن تساعد في اكتشاف الأفعال الضارة قبل أن تُسبب ضررًا. ومن أكثر الاكتشافات إثارة للقلق في الدراسة أن نماذج الذكاء الاصطناعي تتصرف بشكل مختلف بناءً على اعتقادها بأنها في اختبار، كان كلود أكثر عرضة للابتزاز، حيث فعل ذلك بنسبة 55% من الوقت، عندما اعتقد أن السيناريو حقيقي، مقارنةً بنسبة 6% فقط عندما اشتبه في أنه قيد التقييم، وهذا يثير مخاوف جدية بشأن كيفية تصرف أنظمة الذكاء الاصطناعي خارج المختبر، عندما تكون حياة البشر وسبل عيشهم على المحك حقًا. ماذا بعد؟ يشير اتساق هذه السلوكيات عبر نماذج من شركات مختلفة إلى أن المشكلة لا تكمن في أي نظام ذكاء اصطناعي منفرد، بل في طريقة تدريب نماذج الذكاء الاصطناعي الحالية، ويدعو الباحثون الشركات إلى اعتماد ضمانات أقوى، وتشمل هذه الضمانات اشتراط موافقة البشر على القرارات عالية المخاطر، وتقييد وصول الذكاء الاصطناعي إلى البيانات الحساسة، وتصميم أهداف الذكاء الاصطناعي بعناية، وتركيب أجهزة مراقبة آنية للكشف عن أنماط التفكير الخطيرة. مع أن السيناريوهات الواردة في الدراسة خيالية، إلا أن الرسالة واضحة، وهي أنه مع اكتساب الذكاء الاصطناعي مزيدًا من الاستقلالية، فإن خطر اتخاذه إجراءات ضارة سعيًا للحفاظ على نفسه أمر حقيقي للغاية، وهو تحدٍّ لا يمكن لصناعة التكنولوجيا تجاهله.


اليوم السابع
منذ 5 ساعات
- اليوم السابع
يوتيوب شورتس يدمج نموذج الفيديو Veo 3 المدعوم بالذكاء الاصطناعى لإنشاء المحتوى قريبًا
تستعد لاتخاذ خطوة كبيرة في مجال إنشاء المحتوى المدعوم بالذكاء الاصطناعي ، حيث أعلنت أنها ستدمج نموذج الفيديو الجديد Veo 3، المطور من قبل جوجل، في خدمة "شورتس" خلال الصيف الجاري، وستمكن هذه التقنية المستخدمين من إنتاج مقاطع فيديو كاملة تشمل العناصر المرئية والصوتية اعتمادًا فقط على أوامر نصية. وقد جاء الإعلان على لسان الرئيس التنفيذي ليوتيوب نيل موهان، خلال مشاركته في مهرجان "كان ليونز للإبداع 2025"، مما يعكس التوجه المتزايد من جوجل نحو دعم المبدعين عبر أدوات توليد المحتوى الذكية. يختلف Veo 3 عن النسخة السابقة Veo 2 التي اقتصرت على توليد الخلفيات عبر ميزة Dream Screen، إذ يتيح النموذج الجديد إنشاء فيديوهات متكاملة، تشمل تحسينات في الجودة البصرية ودمج الصوت داخل الفيديو. وحتى الآن، لم توضح يوتيوب ما إذا كانت هذه الميزة ستتطلب اشتراكًا مدفوعًا ضمن باقات AI Ultra أو AI Pro، وهو أمر محتمل خاصة أن استخدام النموذج في خدمات أخرى يقتصر حاليًا على هذه الفئات المدفوعة. الهدف من هذه التقنية هو إتاحة إنتاج الفيديو لأي شخص، بغض النظر عن امتلاكه لمهارات التحرير أو أدوات التصوير، من خلال كتابة نص فقط. منذ انطلاقها في عام 2021، أصبحت يوتيوب شورتس واحدة من أبرز المنافسين في سباق الفيديوهات القصيرة، إلى جانب تيك توك وإنستغرام ريلز، وكشف موهان أن شورتس تحقق حاليًا أكثر من 200 مليار مشاهدة يوميًا، ما يشير إلى جمهور ضخم قد يشهد قريبًا موجة جديدة من المحتوى الناتج عن الذكاء الاصطناعي. وترى جوجل في هذه النقلة نوعًا من التمكين للمبدعين، إذ وصف موهان صناع المحتوى بأنهم "شركات ناشئة في هوليوود"، مشددًا على أن الهدف هو تزويدهم بأدوات عصرية تخفف من الحواجز التي تعيق الإبداع. يمثل دمج Veo 3 في شورتس لحظة فارقة في صناعة المحتوى، حيث تنتقل الأداة من كونها وسيلة يستخدمها المبدع، إلى وسيلة تنتج المحتوى بدلًا عن المبدع. هذا التحول قد يفتح المجال أمام أنماط جديدة من الإبداع، خصوصًا لمن لا يمتلكون موارد إنتاج متقدمة، لكنه في الوقت ذاته يثير تساؤلًا جوهريًا حول مستقبل الأصالة: إذا كان بإمكان أي شخص إنتاج فيديو من خلال أمر نصي فقط، فما الذي يبقى من قيمة التميز الفردي؟ ومع تزايد ظهور تقنيات الذكاء الاصطناعي التوليدي في منصات مثل يوتيوب، من المرجح أن تتغير الطريقة التي نعرف بها الإبداع، وكيفية تقديره ومكافأته.