05/مرداد/1404 | 19:09
۱۶:۲۸
۱۴۰۴/۰۵/۰۵

سم آلتمن: از هوش‌مصنوعی برای مشاوره حقوقی و روانی استفاده نکنید

سم آلتمن: از هوش‌مصنوعی برای مشاوره حقوقی و روانی استفاده نکنید
نگرانی‌های حقوقی درباره محرمانگی تنها دلیلی نیست که به باور کارشناسان، مردم باید از استفاده از چت‌بات‌ها به عنوان درمانگر دوری می‌کنند. یک مطالعه جدید از دانشگاه استنفورد نشان داده که چت‌بات‌های درمانی هوش مصنوعی، اظهار نظر‌های نامناسب و نادرستی درباره برخی بیماری‌های روانی دارند.
کد خبر: ۴۹۵۲۰

ظاهرا نباید راز‌های مگوی زندگی‌تان را با یک چت‌بات هوش مصنوعی مثل چت جی‌پی‌تی در میان بگذارید. این توصیه دیگر صرفا دیدگاه کارشناسان مستقل نیست بلکه سازنده معروف‌ترین مدل هوش مصنوعی مولد جهان نیز بر آن تاکید دارد.

سم آلتمن، مدیرعامل «اوپن‌ای‌آی» (OpenAI)، شرکت سازنده چت جی‌پی‌تی (ChatGPT)، این موضوع را این هفته در مصاحبه‌ای با تئو وان، مجری پادکست This Past Weekend مطرح کرد.

او تاکید کرد که اگرچه گفت‌و‌گو‌های شما با هوش مصنوعی باید از سطح بالایی از محرمانگی برخوردار باشد، اما در حال حاضر برای این مهم، قانونی وجود ندارد.

در بخشی از این گفت‌و‌گو، تئو وان گفت که یکی از دلایلی که در استفاده از ابزار‌های هوش مصنوعی تردید دارد این است که «نمی‌داند چه کسی قرار است اطلاعات شخصی‌اش را داشته باشد» و آقای آلتمن پاسخ داد: «فکر می‌کنم این نگرانی منطقی است. اینکه قبل از استفاده گسترده از این ابزارها، آدم واقعاً بخواهد از جنبه حقوقی و حریم خصوصی اش مطمئن بشود.»

در سال‌های اخیر کاربران زیادی، استفاده از چت‌بات‌ها به عنوان درمانگر، پزشک یا مشاور حقوقی را آغاز کرده‌اند و این موضوع برای حریم خصوصی مشکل‌ساز شده است.

هیچ قانون مشخصی برای محرمانگی این مکالمات وجود ندارد و اینکه واقعاً چه اتفاقی برای این داده‌ها می‌افتد، مبهم است. البته مشکلات دیگری هم وجود دارد مثلاً اینکه چت‌بات‌ها ممکن است توصیه‌های خوبی ارائه نکنند.

بر همین اساس آقای آلتمن گفت: «مردم، به خصوص جوان‌ها از این ابزار مثل درمانگر و مربی زندگی استفاده می‌کنند. مثلا می‌گویند من مشکل عاطفی دارم، چه‌کار کنم؟ در حالی که اگر همین حرف‌ها را با یک وکیل یا دکتر بزنید، مکالمات شما تحت حمایت قانون است.»

او افزود: «اگر شما با چت‌جی‌پی‌تی درباره شخصی‌ترین مسائل زندگیتان حرف بزنید و بعد یک دعوی حقوقی مطرح شود، ممکن است شرکت ما مجبور شود آن اطلاعات را فاش کند. به‌نظرم این اوضاع خیلی درهم‌وبرهم است. ما باید همان سطح از حریم خصوصی را برای چت با هوش مصنوعی داشته باشیم که برای صحبت با درمانگر یا وکیل داریم.»

سم آلتمن اعتراف کرد که گفت‌و‌گو‌های شخصی مردم با چت‌جی‌پی‌تی لزوماً محرمانه نیستند، زیرا در حال حاضر هیچ مبنای قانونی برای حفاظت از اطلاعات حساس و شخصی وجود ندارد.

او تاکید کرد که این مساله باید «با فوریت» رسیدگی شود و افزود که سیاست‌گذاران نیز با او هم‌عقیده‌اند.

این نگرانی نیز وجود دارد که وقتی شما از چی‌جی‌پی‌تی یا ابزار مشابهی برای مکالمه درمانی استفاده می‌کنید، ممکن است وقتی شرکت بیمه یا شخص دیگری درباره شما از همان ابزار سؤال می‌پرسد، بخشی از آن داده‌ها افشا شوند.

نگرانی‌های حقوقی درباره محرمانگی تنها دلیلی نیست که به باور کارشناسان، مردم باید از استفاده از چت‌بات‌ها به عنوان درمانگر دوری می‌کنند. یک مطالعه جدید از دانشگاه استنفورد نشان داده که چت‌بات‌های درمانی هوش مصنوعی، اظهار نظر‌های نامناسب و نادرستی درباره برخی بیماری‌های روانی دارند.

منبع: یورونیوز