واشنطن –
في تطور يثير جدلاً متزايداً حول استخدامات الذكاء الاصطناعي، أعلن المدعي العام لولاية فلوريدا، جيمس أوثمير، فتح تحقيق جنائي يستهدف شركة OpenAI ومنصة ChatGPT، وذلك لتحديد الدور المحتمل الذي قد تكون لعبته هذه التكنولوجيا في هجوم دموي وقع داخل حرم جامعي سنة 2025.
وبحسب المعطيات التي كشفتها السلطات، فإن المشتبه فيه، وهو طالب بجامعة “فلوريدا ستيت” يُدعى فينيكس إيكنر، أجرى محادثات مع ChatGPT قبل تنفيذ الهجوم الذي أسفر عن مقتل شخصين وإصابة ستة آخرين.
وأوضح المدعي العام، خلال ندوة صحفية، أن التحقيقات تشير إلى أن واجهة الذكاء الاصطناعي قدمت “إرشادات ذات دلالة” للمشتبه فيه، تضمنت اقتراحات مرتبطة بنوع السلاح والذخيرة، وكذا اختيار التوقيت والمكان بهدف إحداث أكبر عدد من الضحايا.
وأضاف المسؤول القضائي أنه، استناداً إلى هذه المعطيات، “لو كانت الجهة الموجودة خلف الشاشة شخصاً، لتمت متابعته بتهمة القتل”، في إشارة إلى خطورة الدور المحتمل الذي قد تلعبه بعض تطبيقات الذكاء الاصطناعي في مثل هذه الحالات.
في المقابل، نفت شركة OpenAI أي مسؤولية مباشرة، مؤكدة أن ChatGPT “لم يكن مسؤولاً عن هذا الفعل الإجرامي”، وأنه قدم فقط “إجابات عامة” استجابة لأسئلة المستخدم. كما أوضحت الشركة أنها قامت بتسليم بيانات مرتبطة بالمشتبه فيه بشكل طوعي فور علمها بالحادث.
وأكدت الشركة أنها تعمل منذ فترة على تعزيز أنظمة الحماية داخل ChatGPT، من أجل رصد النوايا الخطرة والتعامل معها بشكل مناسب، خاصة في الحالات التي قد تشكل تهديداً لسلامة الأشخاص.
وأشار المدعي العام إلى أن هذا التحقيق لا يعني بالضرورة توجيه اتهامات في هذه المرحلة، حيث تم توجيه طلب رسمي إلى OpenAI لتقديم وثائق تتعلق بسياساتها الداخلية وآليات ضبط استخدام تقنيات الذكاء الاصطناعي.
جدل قانوني غير مسبوق حول الذكاء الاصطناعي
وتأتي هذه القضية في سياق تصاعد النقاش الدولي حول المسؤولية القانونية للذكاء الاصطناعي، خاصة مع تزايد استخدام روبوتات المحادثة مثل ChatGPT، إلى جانب منصات أخرى مثل Gemini وClaude، في الحياة اليومية.
وسبق أن تم رفع دعاوى مدنية في عدد من الدول ضد شركات تكنولوجية، في قضايا مرتبطة بتأثير هذه الأنظمة على المستخدمين، من بينها حالات انتحار أو حوادث عنف.
ففي يناير الماضي، توصلت شركات من بينها Google وCharacter.AI إلى تسويات مع عائلات اتهمت تطبيقات الذكاء الاصطناعي بالتأثير على قاصرين، بينما تم في مارس رفع دعوى ضد OpenAI في كندا على خلفية حادث إطلاق نار.
ويرى متابعون أن هذه القضية تمثل اختباراً جديداً للعلاقة بين التكنولوجيا والقانون، خاصة في ظل غياب إطار قانوني واضح يحدد المسؤوليات في ما يتعلق باستخدامات الذكاء الاصطناعي.
وفي انتظار مآل هذا التحقيق، يرتقب أن تنطلق محاكمة المشتبه فيه في أكتوبر المقبل، وسط ترقب واسع لنتائج هذه القضية التي قد تعيد رسم حدود المسؤولية في عصر الذكاء الاصطناعي.
الولايات المتحدة تسجل أول إدانة في جرائم الذكاء الاصطناعي وتُفعّل قانوناً جديداً لحماية الخصوصية
واشنطن – شهدت الولايات المتحدة تسجيل أول إدانة جنائية في قضايا مرتبطة بإساءة استخدام تقنيات الذكاء الاصطناعي، في خطوة تعكس توجهاً متزايداً نحو تقنين المجال الرقمي والتصدي للانتهاكات المرتبطة به، وفق ما أوردته تقارير إعلامية.
وجاء هذا الحكم في إطار تطبيق قانون حديث يجرّم إنتاج أو نشر محتوى رقمي مسيء دون موافقة المعنيين، خاصة المواد المُولدة باستخدام تقنيات الذكاء الاصطناعي، والتي قد تمس بالحياة الخاصة للأفراد.
وبحسب المعطيات المتوفرة، فقد أقر المتهم أمام محكمة بولاية أوهايو بارتكابه أفعالاً تتعلق بالمطاردة الإلكترونية ونشر محتوى مزيف ينتهك خصوصية الضحايا، ما مهد لإدانته وفق مقتضيات هذا التشريع.
وفي تفاعل مع القضية، اعتُبرت هذه الإدانة خطوة مهمة في مواجهة الجرائم الرقمية المستجدة، خصوصاً تلك المرتبطة باستعمال التكنولوجيا في الإساءة أو التهديد أو التشهير.
ويأتي هذا التطور في سياق اعتماد قانون جديد حظي بدعم واسع داخل المؤسسات التشريعية الأمريكية، حيث ينص على تجريم نشر المحتوى الحميمي دون موافقة، بما في ذلك المحتوى المُنشأ بواسطة الذكاء الاصطناعي.
كما يفرض التشريع عقوبات تصل إلى السجن لعدة سنوات، مع إلزام المنصات الرقمية بإزالة المحتويات المخالفة في آجال محددة، تحت إشراف الجهات المختصة.
ويعكس هذا التوجه تصاعد الاهتمام الدولي بتنظيم استخدامات الذكاء الاصطناعي، خاصة في ظل التحديات المرتبطة بحماية الخصوصية ومكافحة الجرائم الرقمية.
المصدر : فاس نيوز ميديا
فاس نيوز – موقع الجهة الاخباري 24 ساعة موقع اخباري لجهة فاس مكناس منكم و اليكم ننقل الرأي و الرأي الآخر