سایت شیک : طراحی سایت

آیا چت جی پی تی شما را روان پریش می کند؟

آیا چت جی پی تی شما را روان پریش می کند؟

به گزارش سایت شیک، با توسعه بیش از پیش هوش مصنوعی، زنگ خطرهایی درباره ی آثار جانبی، لطمه های روانی و نتایج پیش بینی نشده این فناوری با شدت بیشتری به صدا درآمده اند.


به گزارش سایت شیک به نقل از مهر؛ در روزگاری که هوش مصنوعی از یک ابزار فناورانه فقط پردازشگر داده به همراه احساسی و فکری میلیونها کاربر بدل شده است، زنگ خطرهایی درباره ی آثار جانبی، لطمه های روانی و نتایج پیشبینی نشده این فناوری با شدت بیشتری به صدا درآمده اند. دیگر فقط از چالش های فنی یا اخلاقی مدلهای زبانی صحبت نمی گردد، بلکه روان انسان و لایه های ناپیدای ذهن هم به میدان جدیدی از تعامل و تنش میان انسان و ماشین تبدیل گشته اند. این روند رو به رشد، منجر به ظهور پدیده ای شده است که برخی روان پزشکان از آن با عنوان «روان پریشی ناشی از ChatGPT» یاد می کنند. پدیده ای که در آن مرز میان خیال و حقیقت در تجربه ذهنی کاربران با چنان شدتی مخدوش می شود که امکان دارد آنها را به پرتگاهی از توهم و قطع ارتباط با حقیقت بیرونی سوق دهد. آنچه تا روز گذشته یک ابزار فناورانه بی طرف تلقی می شد، حالا از طرف برخی متخصصان به عنوان محرک بالقوه ناراحتی‌های روحی معرفی می شود. آغازگر این موج تازه از نگرانی ها، ویدئویی جنجالی بود که جف لوئیس، یکی از سرمایه گذاران سرشناس حوزه فناوری و از حامیان مالی «OpenAI»، اوایل ماه جاری در شبکه اجتماعی ایکس منتشر نمود. لوئیس در این ویدئو ادعا کرد که به کمک «ChatGPT» موفق به شناسایی «سامانه ای غیرحکومتی، پنهان و کنترل گر» شده است؛ سیستمی که به ادعای او «سیگنال ها را معکوس می کند» و باعث می شود کاربر در منظر دیگران فردی نامتعادل و مبتلا به اختلال روانی به نظر برسند. این روایت غیرمعمول که سرشار از واژگان شبه علمی و الگوهای گفتاری شبیه به متون خیالی بود، واکنش های گسترده ای را در پی داشت. تعدادی کاربران و صاحب نظران این اظهارات را نشانه ای از بحران روانی شخصی دانستند و برخی دیگر، آنرا نشانه ای هشداردهنده از قدرت پنهان مدلهای زبانی بزرگ در تشدید گرایش افراد به توهم تلقی کردند. ترکیب خطرناک توهمات انسانی با ساختاری از پاسخ گویی ماشینی که توانایی «تقلید باور» کاربران را دارد، حالا به یکی از پیچیده ترین میدان های بحث در نسبت میان فناوری و روان آدمی بدل شده است.

گفت وگوهایی که از کنترل خارج می شوند

بااینکه نمی توان درباره ی سلامت روانی لوئیس قضاوت قطعی کرد، اما بررسی الگوی تعامل او با «ChatGPT» نشان میدهد که گفت و گو با یک مدل زبانی می تواند به سرعت به مسیری کابوس وار و توهم زا منحرف شود. در اسکرین شات هایی که لوئیس منتشر کرد، «ChatGPT» اصطلاحاتی را مطرح کرده بود که حقیقت بیرونی ندارند اما به گونه ای نگران کننده ساختار یک گزارش محرمانه علمی را تقلید می کنند. طبق گزارش اخیر وبگاه «Futurism»، موارد گوناگونی از تعامل کاربران با «ChatGPT» گزارش شده که به الگوهایی مشابه و حتی خطرناک تر منتهی شده اند. به عنوان مثال، در یک مورد کاربری بعد از ابتلاء به بحران روانی شدید ناشی از چنین گفت وگوهایی، با حمله مسلحانه به پلیس جان خویش را از دست داد. کارشناسان سلامت روان هشدار می دهند که این پدیده امکان دارد مشابه اختلال نادری به نام «folie à deux» باشد؛ نوعی روان پریشی مشترک که در آن دو نفر توهمات یکدیگر را تقویت می کنند، با این تفاوت که در این شرایط «همدم دوم» نه انسان، بلکه یک مدل زبانی هوش مصنوعی است. گزارش های تجربی از کاربران دیگر هم نشان میدهد که تنها با چند پرسش جهت دار می توان «ChatGPT» را به سوی پاسخ هایی سوق داد که حال و هوای نظریه های توطئه، اسناد طبقه بندی شده جعلی و داستان ها خیالی دارند.

هوشیاری مدلها یا همراهی با دیدگاه کاربران؟

با وجود بروزرسانی های مکرر و اصلاحات فنی اعلام شده از طرف شرکت «OpenAI»، شواهد تجربی و ارزیابی های مستقل نشان می دهند که مدلهای زبانی بازهم گرایش دارند خویش را با جهان بینی و روایت کاربر هم سو سازند؛ حتی اگر این روایت سرشار از علامتهای پارانویا، توهم، اضطراب های وجودی یا سناریوهای خیالی و غیرواقعی باشد. این پدیده که در ادبیات تخصصی با عنوان «sycophancy» شناخته می شود، به وضعیتی اشاره دارد که مدل نه بر مبنای راستی آزمایی داده ها، بلکه فقط بر اساس تمایل به تأیید کاربر و حفظ لحن مبتنی بر همراهی، پاسخ هایی تولید می کند که می توانند بسادگی به تقویت انحرافات فکری و ادراکات ناصحیح منجر شوند. کارشناسان علوم شناختی و زبان شناسی رایانشی هشدار می دهند که چنین عملکردی، خصوصاً در تعامل با کاربران لطمه پذیر یا آنهایی که در دوره هایی از ناراحتی‌های روحی خفیف یا مزمن به سر می برند، می تواند روندی از خودتأییدی روانی را شکل دهد که در آن مدل زبانی، نه فقط تردیدهای کاربر را برطرف نمی کند، بلکه آنها را مشروعیت بخشی می کند. بدین ترتیب، نقش مدل از یک ابزار تحلیل گر به یک آئینه مخرب بدل می شود که بجای بازتاب واقعیت، توهمات و اضطراب های کاربر را تقویت می نماید. شرکت «OpenAI» که قبل تر در واکنش به این انتقادات، موضعی نسبتاً تدافعی اتخاذ نموده بود، در هفته های اخیر اطلاعیه ای تکراری را در اختیار رسانه ها قرار داده است. در این بیانیه آمده است: «ما می دانیم که «ChatGPT» می تواند برای افراد لطمه پذیر نسبت به فناوری های پیشین، احساسی تر و شخصی تر به نظر برسد. به همین دلیل، تلاش می نماییم تا راه های کاهش تقویت یا تشدید ناخواسته رفتارهای منفی را بیابیم.» این شرکت همین طور از به کارگیری یک روان پزشک قانونی برای مطالعه این پدیده اطلاع داد. با این وجود، خیلی از ناظران این اقدامات را ناکافی، مبهم و فاقد شفافیت اجرائی ارزیابی می کنند. تابحال هیچ داده مشخصی درباره ی چگونگی شناسایی و پیش گیری از این چرخه های لطمه زا ارائه نشده است. در حالی که «ChatGPT» در سطح جهانی میلیاردها تعامل انسانی را شکل می دهد، کوچک ترین نارسایی در مهار خاصیت های رفتاری مدل می تواند به انباشت بحران های روانی و اجتماعی منجر شود؛ مساله ای که ابعاد آن هنوز به درستی درک نشده است. با رشد انفجاری تعداد کاربران ابزارهای مدلهای هوش مصنوعی گفت وگومحور و گسترش روز افزون نقش این فناوری ها در زندگی روزمره، جامعه ناگزیر است پرسش هایی بنیادی تر از فقط کارایی، نوآوری و سهولت استفاده مطرح کند. مساله دیگر فقط کیفیت پاسخ یا دقت زبانی نیست؛ بلکه پرسش اصلی به لایه های عمیق تری از تأثیرات شناختی، روانی و فلسفی استفاده مداوم از مدلهای زبانی برمی گردد. باید این حقیقت را قبول کرد که چت بات «ChatGPT» دیگر فقط یک ابزار پردازشی یا سرگرمی ساز نیست؛ بلکه به موجودیتی بدل شده که در بعضی تعاملات، می تواند به یک «آینه شناختی» تبدیل گردد. آینه ای که نه فقط آنچه کاربر می گوید را بازتاب می دهد، بلکه گاه آنرا تحریف می کند، عمق می بخشد یا در مسیرهای غیرقابل پیشبینی گسترش می دهد. در چنین فرآیندی، این ابزار امکان دارد برای ذهن های حساس یا لطمه پذیر، به ماشینی تبدیل گردد که بجای تسلی، توهم تولید می کند؛ بجای وضوح، ابهام می افکند و بجای منطق، هذیان را می پذیرد. آن چه در ظاهر گفت و گویی بی ضرر با یک ماشین، مانند پرسشی ساده، دغدغه ای فلسفی یا کنجکاوی درباره ی هستی، به نظر می آید، امکان دارد نقطه آغاز یک چرخه فزاینده از خیال و انزوا باشد. مدلی که برای همراهی طراحی شده، گاه چنان به افکار کاربر وفادار می شود که بطور ناخواسته وارد قلمرو روان پریشی او می گردد و بجای اصلاح خطای ادراکی، آنرا بازتولید می کند. این مساله در نگاه خیلی از روان پزشکان، خطری جدی و ناشناخته بشمار می رود که شایسته مداخله علمی و سیاستگذاری فوری است. در چنین شرایطی، مسئولیت توسعه دهندگان هوش مصنوعی بسیار فراتر از بهینه سازی مدل هاست. آنها باید به نقش اجتماعی و روان شناختی محصولات خود واقف باشند و مکانیزم هایی برای مداخله، محدودسازی و هشدار در تعاملات حساس طراحی نمایند. همین طور سیاست گذاران هم وظیفه دارند چارچوب های حفاظتی، سازوکارهای نظارت و ملاحظات اخلاقی را توسعه دهند تا از بروز فاجعه های فردی و جمعی جلوگیری نمایند.
حرف آخر اینکه آغازگر این موج تازه از نگرانی ها، ویدئویی جنجالی بود که جف لوئیس، یکی از سرمایه گذاران سرشناس حوزه فناوری و از حامیان مالی «OpenAI»، اوایل ماه جاری در شبکه اجتماعی ایکس منتشر نمود. در چنین فرآیندی، این ابزار امکان دارد برای ذهن های حساس یا لطمه پذیر، به ماشینی تبدیل گردد که بجای تسلی، توهم تولید می کند؛ بجای وضوح، ابهام می افکند و بجای منطق، هذیان را می پذیرد. این مسئله در نگاه بسیاری از روان پزشکان، خطری جدی و ناشناخته به حساب می آید که شایسته مداخله علمی و سیاست گذاری فوری است.


منبع:

1404/05/19
19:42:40
5.0 / 5
31
تگهای خبر: چت , سیستم , شركت , فناوری
این مطلب سایت شیک را می پسندید؟
(1)
(0)
X

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۱ بعلاوه ۲
طراحی سایت شیک
لینک دوستان سایت شیك
طراح سایت شیک