سائنس کی دنیا مصنوعی ذہانت اور ممکنہ خطرات

ملک منظور

اس بات پر سب لوگ متفق ہیں کہ سائنس اور ٹیکنالوجی نے جہاں زندگی میں مثبت تبدیلیاں لائی ہیں وہیں منفی اثرات کو بھی جنم دیا ہے۔انٹرنیٹ کے ساتھ ساتھ سائبر جرائم کا نہ رکنے والا سلسلہ شروع ہوگیا۔کم آگہی اور لا علمی کی وجہ سے عام لوگ سائبر مجرموں کے آسان ٹارگیٹ بن گئے۔اسی لئے یہ کہنا بجا ہوگا کہ مصنوعی ذہانت کے بارے میں عام لوگوں کو جانکاری حاصل کرنی چاہیے۔اس کے فوائد کے ساتھ ساتھ مضر اثرات پر نظر رکھنی ہوگی۔کیونکہ جیسے جیسے مصنوعی ذہانت زیادہ نفیس اور وسیع ہوتا جائے گا نقصان دہ طریقے بھی سامنے آئیں گے۔اس سلسلے میں مصنوعی ذہانت کے ممکنہ خطرات کے خلاف خبردار کرنے والی آوازیں بلند ہوتی جارہی ہیں۔
جیفری ہنٹن جو کہ مشین لرننگ اور نیورل نیٹ ورک الگورتھم پر اپنے بنیادی کام کیلئے “مصنوعی ذہانت کے گاڈ فادر” کے نام سے مشہور ہیں۔2023 میں، ہنٹن نے گوگل میں اپنا عہدہ چھوڑ دیا تاکہ وہ “مصنوعی ذہانت کے خطرات کے بارے میں بات کر سکیں”، کا ماننا ہے کہ”یہ چیزیں ہم سے زیادہ ذہین ہو سکتی ہیں اور اس پر قبضہ کرنے کا فیصلہ کر سکتی ہیں، اور ہمیں اب اس بات کی فکر کرنے کی ضرورت ہے کہ ہم اسے ہونے سے کیسے روک سکتے ہیں،” یہ نوٹ کرتے ہوئے کہ ان کا ایک حصہ اپنی زندگی کے کام پر پچھتاوا بھی ہے۔
مشہور کمپیوٹر سائنسدان اپنے خدشات میں تنہا نہیں ہے
Tesla اور SpaceX کے بانی ایلون مسک نے 1,000 سے زیادہ دیگر ٹیک لیڈروں کے ساتھ، 2023 کے ایک کھلے خط میں مصنوعی ذہانت کے بڑے تجربات کو روکنے کے لیے زور دیا، جس کا حوالہ دیتے ہوئے کہا گیا کہ ٹیکنالوجی “معاشرے اور انسانیت کے لیے گہرے خطرات کا باعث بن سکتی ہے۔”
اگرچہ مصنوعی ذہانت عظیم صلاحیت رکھتی ہے، اس کے ساتھ ساتھ اس کی ترقی اور تعیناتی سے وابستہ کئی ممکنہ خطرات اور چیلنجز بھی ہیں۔ کچھ اہم خدشات مندرجہ ذیل ہیں:
ملازمت کی نقل مکانی: مصنوعی ذہانت کے ذریعے چلنے والی آٹومیشن کچھ ملازمتوں کی نقل مکانی کا باعث بن سکتی ہے، خاص طور پر وہ کام جن میں دہرائے جانے والے کام شامل ہیں۔ اس کے نتیجے میں بے روزگاری ہو سکتی ہے یا قابل ذکر افرادی قوت کی دوبارہ تربیت اور اعلیٰ مہارت کی ضرورت ہو سکتی ہے۔
تعصب اور امتیازی سلوک: مصنوعی ذہانت سسٹمز صرف اتنے ہی اچھے ہیں جتنے ڈیٹا پر وہ تربیت یافتہ ہیں۔ اگر تربیتی ڈیٹا تعصبات پر مشتمل ہے یا معاشرتی تعصبات کی عکاسی کرتا ہے، تو مصنوعی ذہانت نظام ان تعصبات کو برقرار رکھ سکتے ہیں اور یہاں تک کہ ان کو بڑھا سکتے ہیں، جس کے نتیجے میں امتیازی نتائج برآمد ہوتے ہیں۔
شفافیت کی کمی: گہرا مطالعہ اور پیچیدہ مصنوعی ذہانت الگورتھم کی تشریح اور فہم مشکل ہو سکتا ہے۔ شفافیت کی کمی احتساب اور “بلیک باکس” کے مسئلے کے بارے میں خدشات کو جنم دے سکتی ہے، جہاں یہ بتانا مشکل ہے کہ مصنوعی ذہانت کسی خاص فیصلے پر کیسے پہنچتا ہے۔
سیکورٹی اور پرائیویسی کے خطرات: مصنوعی ذہانت سسٹم حملوں اور ہیرا پھیری کا شکار ہو سکتے ہیں، جس سے سیکورٹی کی خلاف ورزیاں اور رازداری کی خلاف ورزیاں ہو سکتی ہیں۔ مصنوعی ذہانت سسٹمز کے ذریعے ذاتی ڈیٹا کی بڑی مقدار کا جمع ہونا رازداری کے خدشات کو بھی بڑھاتا ہے۔
خود مختار ہتھیار: مصنوعی ذہانت سے چلنے والے خود مختار ہتھیاروں اور فوجی ایپلی کیشنز کی ترقی مہلک سیاق و سباق میں مصنوعی ذہانت کے استعمال اور انسانی کنٹرول کے ضائع ہونے کے امکانات کے بارے میں اخلاقی سوالات اٹھاتی ہے۔
بے روزگاری اور آمدنی میں عدم مساوات: چونکہ مصنوعی ذہانت سے چلنے والی آٹومیشن کچھ کاموں کو سنبھالتی ہے، اس لیے ملازمت کی نقل مکانی اور مصنوعی ذہانت سے فائدہ اٹھانے والوں اور نہ کرنے والوں کے درمیان آمدنی میں عدم مساوات کا خطرہ ہوسکتا ہے۔
مصنوعی ذہانت پر انحصار: مصنوعی ذہانت سسٹمز پر حد سے زیادہ انحصار، خاص طور پر صحت کی دیکھ بھال یا نقل و حمل جیسے اہم ڈومینز میں، اگر سسٹمز ناکام ہو جاتے ہیں یا ان سے ہیرا پھیری کی جاتی ہے تو کمزوریوں کا باعث بن سکتی ہے۔
اخلاقی مخمصے: مصنوعی ذہانت اخلاقی مخمصے پیدا کرتا ہے، جیسے کہ جب کوئی مصنوعی ذہانت سسٹم نقصان دہ غلطی کرتا ہے تو کون ذمہ دار ہوتا ہے یا کچھ ایپلی کیشنز، جیسے سوشل کریڈٹ سسٹمز میں مصنوعی ذہانت کے استعمال کے اخلاقی مضمرات کے بارے میں فیصلے۔
سماجی تنہائی: جیسا کہ مصنوعی ذہانت سے چلنے والے ورچوئل اسسٹنٹس اور چیٹ بوٹس زیادہ مقبول ہو رہے ہیں، اس لیے ایک تشویش پائی جاتی ہے کہ انسانی مشین کے باہمی تعامل میں اضافہ انسان سے انسان کے درمیان تعامل اور سماجی تنہائی کو کم کرنے کا باعث بن سکتا ہے۔
مصنوعی ذہانت اسلحے کی دوڑ: جدید مصنوعی ذہانت ٹیکنالوجیز تیار کرنے کا عالمی مقابلہ ہتھیاروں کی دوڑ کا باعث بن سکتا ہے، جوہری ہتھیاروں کی دوڑ کی طرح، ممکنہ حفاظتی خطرات کے ساتھ۔
انسانی کنٹرول کا نقصان: جیسے جیسے مصنوعی ذہانت سسٹمز زیادہ نفیس ہوتے جاتے ہیں، ان نظاموں پر انسانی کنٹرول کھونے کے بارے میں تشویش پائی جاتی ہے، خاص طور پر ایسے حالات میں جہاں فیصلوں کے اہم نتائج ہوتے ہیں۔
ان خطرات اور چیلنجوں سے نمٹنے کے لیے حکومتوں، تنظیموں اور محققین کے لیے ذمہ دار مصنوعی ذہانت کی ترقی کو ترجیح دینا، واضح ضابطے اور اخلاقی رہنما خطوط قائم کرنا، اور مصنوعی ذہانت سسٹمز کے ڈیزائن اور تعیناتی میں شفافیت، انصاف پسندی اور جوابدہی کو فروغ دینا بہت ضروری ہے۔ مختلف سٹیک ہولڈرز، بشمول پالیسی سازوں، ٹیکنالوجی کے ماہرین، اخلاقیات کے ماہرین اور عام عوام کے درمیان تعاون، معاشرے میں مصنوعی ذہانت کے ذمہ دار اور فائدہ مند انضمام کو یقینی بنانے کے لیے ضروری ہے۔
کیا یہ انسانوں کے بغیر کام کر سکتا ہے؟
مصنوعی ذہانت (مصنوعی ذہانت ) انسانوں کے ذریعہ ڈیزائن اور تخلیق کی گئی ہے، اور اس کی موجودہ صلاحیتیں اور افعال انسانوں کے پروگرام کردہ الگورتھم اور ماڈلز تک محدود ہیں۔ تاہم، کچھ ایسے مصنوعی ذہانت نظام ہیں جو مسلسل انسانی مداخلت کے بغیر کام انجام دے سکتے ہیں، اور انہیں “خودمختار” مصنوعی ذہانت نظام کہا جاتا ہے۔
خود مختار مصنوعی ذہانت نظام مخصوص کاموں یا پہلے سے طے شدہ ماحول میں براہ راست انسانی کنٹرول کے بغیر کام کر سکتے ہیں۔ اس طرح کے نظام کی مثالوں میں خود مختار گاڑیاں، خود پائلٹ ڈرونز، اور مینوفیکچرنگ یا خلائی تحقیق میں استعمال ہونے والے کچھ جدید روبوٹکس شامل ہیں۔ یہ سسٹمز اپنے اردگرد کے ریئل ٹائم ڈیٹا کا تجزیہ کر سکتے ہیں اور پہلے سے طے شدہ اصولوں اور مشین لرننگ ماڈلز کی بنیاد پر فیصلے کر سکتے ہیں۔
اگرچہ یہ خود مختار مصنوعی ذہانت نظام مسلسل انسانی مداخلت کے بغیر کام کر سکتے ہیں، لیکن وہ اب بھی اپنے ابتدائی پروگرامنگ اور اس ڈیٹا پر انحصار کرتے ہیں جس پر انہیں تربیت دی گئی ہے۔ مزید برآں، انسان ان نظاموں کو ڈیزائن اور برقرار رکھنے، ان کی کارکردگی کی نگرانی، اور ضرورت کے مطابق انہیں اپ ڈیٹ کرنے میں ملوث ہیں۔
تاہم، یہ نوٹ کرنا ضروری ہے کہ فی الحال مصنوعی ذہانت سسٹمز میں حقیقی شعور، خود آگاہی، یا انسانوں جیسی عمومی ذہانت کا فقدان ہے۔ وہ “تنگ مصنوعی ذہانت ” یا “کمزور مصنوعی ذہانت ” ہیں، جنہیں مخصوص کاموں کے لیے ڈیزائن کیا گیا ہے، اور ان میں اپنے پروگرام شدہ دائرہ کار سے باہر سوچنے، استدلال کرنے یا نئے حالات کے مطابق ڈھالنے کی صلاحیت نہیں ہے۔
ایک ایسا مصنوعی ذہانت نظام بنانا جو کسی بھی حالت میں مکمل طور پر انسانوں کے بغیر کام کر سکے، فی الحال موجودہ ٹیکنالوجی کی صلاحیتوں سے باہر ہے۔ یہ اخلاقی خدشات اور ممکنہ خطرات کو بھی بڑھاتا ہے اگر مصنوعی ذہانت نظام انسانی نگرانی یا کنٹرول کے بغیر مکمل طور پر آزادانہ طور پر کام کریں۔ مصنوعی ذہانت کی ترقی اور تعیناتی میں انسانی شمولیت اور جوابدہی کو یقینی بنانا حفاظت، اخلاقی اور سماجی تحفظات کو حل کرنے کے لیے بہت ضروری ہے۔
آخری بات
آج کے اس ٹیکنالوجی کے زمانے میں ٹیکنالوجی سے ناواقفیت سب سے بڑی نادانی ہے۔عام لوگوں کے لئے یہ بات ناگزیر ہے کہ وہ ہر نئی ڈیولپمنٹ سے آگاہ رہیں اور خبردار رہیں۔بصورت دیگر تباہی کا شکار ہونا طے ہے۔
رابطہ۔ قصبہ کھل ،کولگام کشمیر
ای میل۔[email protected]
۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔