
تتطور تقنيات الذكاء الاصطناعي بسرعة مدهشة، إذ يمكن الآن استخدامها في مجالات عديدة، تمتد من الترفيه إلى استرجاع الذكريات. ومن بين أبرز التطبيقات المثيرة للجدل هو استغلال الذكاء الاصطناعي في القضايا القانونية، كما حدث مؤخرًا في ولاية أريزونا الأمريكية حيث استُخدمت نسخة رقمية لمحاكاة ذكرى شخص متوفى أثناء جلسة محاكمة، مما فتح بابًا جديدًا للنقاش حول الأخلاقيات المرتبطة بهذه التقنية.
استخدام الذكاء الاصطناعي لتخليد ذكرى الموتى
في محكمة بمقاطعة ماريكوبا في ولاية أريزونا، وقعت واقعة فريدة من نوعها، حيث تم عرض نموذج رقمي يمثل الجندي السابق كريستوفر بيلكي، الذي قُتل في حادث إطلاق نار ناتج عن نزاع مروري عام 2021. ظهر النموذج الافتراضي، الذي صُنع بواسطة الذكاء الاصطناعي، في مقطع فيديو مرتديًا سترة خضراء ولحية كاملة. وأُنتج هذا الفيديو ليوجه رسالة شخصية من الضحية لجلسة النطق بالحكم على المتهم جابرييل بول هوركاسيتاس، المتورط في الجريمة.
لم يكن الغرض من هذا الفيديو تقديم دليل قانوني وإنما تسليط الضوء على إنسانية الضحية وأثر الحادث على عائلته. وأوضحت عائلة بيلكي أنها استخدمت هذه الوسيلة للتعبير عن الحزن وتأثير الجريمة، حيث عملت ستايسي ويلز، شقيقة بيلكي، بمساعدة فريق تقني، على تصميم الرسالة التي ألقاها النموذج الافتراضي في المحكمة.
رسالة مؤثرة وتوجه إنساني
الرسالة التي ألقاها النموذج الافتراضي حملت مزيجًا من السخرية والإنسانية، إذ أشار بيلكي الافتراضي إلى أنه كان من الممكن أن تجمعه علاقة صداقة مع المتهم في ظروف مختلفة. وقد أظهرت الرسالة رواية مؤثرة تلقي الضوء على الأثر النفسي الذي تركته الجريمة على عائلته. وأكدت المحكمة أن الفيديو كان جزءًا من المرافعات الإنسانية وليس من الأدلة القانونية. وقد صدر الحكم بسجن المتهم مدة عشر سنوات ونصف، متهمًا بالقتل غير العمد وتعريض حياة آخرين للخطر.
جاء هذا العمل الرقمي كوسيلة للتعبير بطريقة جديدة عن الألم والفقد، ويُعدّ استخدامه في المحكمة خطوة غير مسبوقة ألقت الضوء على كيفية إيصال الرسائل العاطفية بشكل فعّال أمام الهيئات القضائية.
الأبعاد القانونية والأخلاقية للذكاء الاصطناعي
فتح هذا التطور النقاش على مصراعيه حول أخلاقيات إدخال الذكاء الاصطناعي في المحاكم. فرغم التحفظات السابقة نتيجة استخدام الذكاء الاصطناعي لتوليد أدلة قانونية زائفة، إلا أن ما حدث في هذه القضية يختلف تمامًا؛ إذ تم التركيز على العنصر الإنساني دون الدخول في تقديم أدلة مزيفة. ورأى خبراء قانونيون أن هذه التقنية قد تكون مؤثرة عاطفيًا بشكل يفوق الطرق التقليدية، مما يزيد من تعقيد مسألة استخدامها.
يوضح هاري سوردن، أستاذ القانون بجامعة كولورادو، أن المحتوى المُصنّع بواسطة الذكاء الاصطناعي قد يحمل مخاطر جوهرية إذا لم يتم التعامل معه بحذر، مؤكدًا أن أصالته مصطنعة رغم واقعيته الظاهرية، ويجب الانتباه دائمًا عند تقييم تأثيره.
بما أن العالم يتجه نحو تطوير الذكاء الاصطناعي في شتى المجالات، تبدو القضية الأخيرة نقلة نوعية في طريقة تقييم ودراسة التأثيرات الإنسانية التي يمكن لهذه التقنية تسهيلها في سياقات متعددة.