مجله خبری و آموزشی هوش مصنوعی

اکثر پاسخ‌های چت‌جی‌پی‌تی به سوالات دارویی غلط است!

توسط هم‌نگار بلاگ
۰ اظهار نظر
بررسی‌ها نشان می‌دهند حدود سه چهارم پاسخ‌های ربات هوش مصنوعی چت‌جی‌پی‌تی به سوالات مربوط به داروها غلط یا ناکامل است.

بر اساس گزارش فاکس بیزنس، کاربران باید در استفاده از توصیه‌های دارویی این ربات ساخت شرکت OpenAI محتاط باشند.محققان دانشکده داروسازی دانشگاه «لانگ آیلند» آمریکا با طرح پرسش‌های واقعی، چت‌جی‌پی‌تی را به چالش کشیدند.

این مطالعه که روز سه‌شنبه این هفته در جلسه سالانه انجمن داروسازان آمریکا ارائه شد ۳۹ پرسش را در اختیار هوش مصنوعی چت‌جی‌پی‌تی قرار داد اما در نهایت چت‌جی‌پی‌تی تنها موفق شد برای ۱۰ مورد از این پرسش‌ها پاسخ‌ قانع‌کننده ارائه دهد.

این ربات در مورد ۲۹ پرسش دیگر، پاسخ‌های نامرتبط، نادرست یا ناکامل ارائه کرده است.

همچنین محققان از چت‌جی‌پی‌تی خواستند که رفرنس یا ارجاعات لازم را درباره پاسخ‌های خود ارائه دهد که این سیستم هوش مصنوعی تنها موفق به ارائه ارجاعات برای هشت پاسخ شد.

سارا گراسمن از شرکت «فارم‌دی» و مولف اصلی این کار تحقیقی گفت: افراد حرفه‌ای حوزه بهداشت و درمان و بیماران باید در زمینه استفاده از چت‌جی‌پی‌تی به عنوان یک منبع معتبر برای اطلاعات مرتبط با دارو و درمان محتاط باشند.

به گفته گراسمن، هر کسی که از چت‌جی‌پی‌تی برای کسب اطلاعات مرتبط با دارو و درمان استفاده می‌کند، باید با استفاده از منابع مورد اعتماد این اطلاعات را راستی‌آزمایی و تایید کند.

لینک منبع

این مطالب هم پیشنهاد می‌شود

پیام بگذارید