عصر ایران - مردی 60 ساله پس از مشورت با چت جی پی تی (ChatGPT)، نمک خوراکی خود را با برومید سدیم جایگزین کرد؛ اقدامی که منجر به مسمومیت با برومید و بستری شدن سه هفته ای در بخش روانپزشکی شد.
خط بالا شاید به نظرتان خنده دار باشد یا این مرد را ناآگاه خطاب کنید اما واقعیت چیز دیگری است زیرا تقریبا همه افراد حداقل یک بار از چت جی پی تی سوال مرتبط با حوزه سلامت را داشته اند و برای بسیاری از کاربران نیز به یک روال روزانه تبدیل شده است!
این مورد، خطرات بالقوه تکیه بر ربات های چت هوش مصنوعی برای دریافت توصیه های سلامتی را برجسته می کند. با این حال، طبق یک نظرسنجی اخیر، بیشتر آمریکایی ها اطلاعات سلامت تولید شده توسط هوش مصنوعی را «تا حدی قابل اعتماد» می دانند. کارشناسان هشدار می دهند که ابزارهای هوش مصنوعی هرگز نباید جایگزین مراقبت های پزشکی حرفه ای شوند.
ربات های چت هوش مصنوعی سوابق سلامت شخصی شما را در اختیار ندارند، از این رو نمی توانند در مورد علائم جدید، شرایط موجود شما، یا نیازتان به مراقبت های اورژانسی، راهنمایی قابل اعتمادی ارائه دهند.
به گفته دکتر مارگارت لوزواتسکی، مدیر ارشد اطلاعات پزشکی و معاون نوآوری های سلامت دیجیتال در انجمن پزشکی آمریکا، توصیه های سلامتی ربات های چت هوش مصنوعی نیز بسیار کلی هستند.
او اظهار داشت که بهترین کاربرد هوش مصنوعی در حال حاضر، استفاده از آن برای به دست آوردن اطلاعات زمینه ای برای کمک به شما در طرح پرسش ها از پزشک یا توضیح اصطلاحات پزشکی است که نمی دانید.
هوش مصنوعی مولد (Generative AI) بر داده هایی تکیه دارد که با آنها آموزش دیده است و این داده ها ممکن است منعکس کننده جدیدترین راهنمایی های پزشکی نباشند. به عنوان نمونه، مراکز کنترل و پیشگیری از بیماری آمریکا اخیراً واکسن آنفولانزا به روز شده را برای همه افراد 6 ماه و بالاتر توصیه کرده است و برخی از ربات های چت ممکن است از این موضوع مطلع نباشند.
حتی زمانی که یک ربات چت هوش مصنوعی اشتباه می کند، می تواند مطمئن و قانع کننده به نظر برسد. سیستم های هوش مصنوعی ممکن است برای پر کردن شکاف ها، اطلاعات را سر هم کرده و پاسخ های اشتباه یا گمراه کننده ارائه دهند.
مطالعه ای که در مجله Nutrients منتشر شد، نشان داد که ربات های چت محبوبی مانند جمنای، مایکروسافت کوپایلت و چت جی پی تی می توانند برنامه های غذایی مناسبی برای کاهش وزن تولید کنند، اما در متعادل سازی درشت مغذی ها، از جمله کربوهیدرات ها، پروتئین ها، چربی ها و اسیدهای چرب، موفق نیستند.
به گفته دکتر آینسلی مک لین، مشاور هوش مصنوعی سلامت و افسر ارشد سابق هوش مصنوعی در گروه پزشکی میدآتلانتیک کایزر پرمننته، من تمایلی ندارم که به بیمار بگویم هرگز کاری را بر اساس توصیه های چت جی پی تی انجام دهد.
دکتر مک لین خاطرنشان کرد که ربات های هوش مصنوعی مولد در حال حاضر تحت پوشش قوانین حفظ حریم خصوصی سلامت مانند HIPAA نیستند. او گفت: "اطلاعات سلامت شخصی خود را وارد نکنید. این اطلاعات ممکن است به هر جایی ختم شود."
هنگامی که خلاصه های هوش مصنوعی را در گوگل مرور می کنید، بهتر است بررسی کنید که آیا اطلاعات از یک مجله علمی یا سازمان پزشکی مطرح تهیه شده است یا خیر. همچنین، تاریخ اطلاعات را دوباره بررسی کنید تا ببینید آخرین بار چه زمانی به روز شده است.
دکتر لوزواتسکی اظهار امیدواری کرد که مردم در صورت تجربه علائم جدید، همچنان به پزشک خود مراجعه کنند و در مورد اطلاعاتی که از طریق یک ربات چت هوش مصنوعی پیدا کرده اند و هر اقدامی که انجام داده اند، صریح و صادق باشند.
او افزود که کاملاً منطقی است که اطلاعات به دست آمده از هوش مصنوعی را با پزشک خود در میان بگذارید و از او بپرسید: "آیا این اطلاعات دقیق است؟ آیا در مورد من صدق می کند؟ و اگر نه، چرا؟" همچنین می توانید از پزشک خود بپرسید که آیا ابزار سلامت هوش مصنوعی خاصی وجود دارد که او به آن اعتماد دارد یا خیر.