کیلیفورنیا( مانیٹرنگ ڈیسک)ماہرین نفسیات نے خبردار کیا ہے کہ اے آئی ٹیکنالوجی کے انسانی تجربے اور فہم کی کمی کے باعث عوام میں اس کے اخلاقی فیصلوں کی قبولیت محدود ہو سکتی ہے۔ خاص طور پر آرٹیفیشل مورل ایڈوائزرز (AMAs) جو اخلاقی فیصلوں میں انسانوں کی مدد کرنے کے لیے بنائے گئے ہیں، ابھی تک وہ پائیدار اور تعصب سے پاک فیصلے دینے میں کامیاب نہیں ہو سکے۔یونیورسٹی آف کینٹ کے اسکول آف سائیکالوجی کی تحقیق کے مطابق، اگرچہ مصنوعی ذہانت میں اخلاقی فیصلے دینے کی صلاحیت ہو سکتی ہے، لوگ ابھی بھی ان پر مکمل اعتماد کرنے میں ہچکچاہٹ محسوس کرتے ہیں۔ اس تحقیق کا مقصد یہ سمجھنا تھا کہ عوام کی نظر میں یہ اخلاقی مشیر کس طرح کی ساکھ رکھتے ہیں اور ان پر اعتماد کیوں نہیں کیا جا رہا۔یہ بات اہم ہے کہ اے آئی سسٹمز کو اخلاقی فیصلوں میں استعمال کرنے کے لیے ان کی مکمل ساکھ اور اعتماد کو ثابت کرنا ضروری ہے، خاص طور پر جب یہ مشینیں انسانی تجربے اور فہم سے ہٹ کر فیصلے کرنے کی کوشش کرتی ہیں۔
کیا اے آئی ٹیکنالوجی اخلاقیات پر بھی درس دے سکتی ہے؟
9