یک مطالعه تازه از دانشگاه آکسفورد زنگ خطر را برای استفاده از چتباتهای هوش مصنوعی عمومی مانند ChatGPT در حوزه سلامت به صدا درآورده. محققان میگویند این ابزارها اغلب در ارائه توصیههای پزشکی دچار خطاهای فاحش، اطلاعات گیجکننده و ناتوانی در شخصیسازی پاسخها میشوند. در واقع، درست مثل یک تازهوارد بیتجربه در بازار ارز دیجیتال که نسخه یکسان برای همه میپیچد، این مدلهای زبانی هم ممکن است با اطلاعات عمومی و غیرتخصصی، کاربر را به مسیر اشتباهی هدایت کنند.
این پژوهش تأکید میکند که مشکل اصلی در معماری و دادههای آموزشی این مدلهاست. آنها برای گفتوگوی عمومی طراحی شدهاند و نه برای جایگزینی مشاوره تخصصی پزشکی. بنابراین، توصیه آنها میتواند ناقص، تاریخ گذشته یا حتی متناقض باشد. به زبان ساده، اعتماد کورکورانه به این ابزارها در موضوعی به حساسیت سلامتی، ریسکی به مراتب بالاتر از معامله بر اساس سیگنال یک کانال ناشناس در بازار نزولی (بیریش) دارد.
نظر کارشناسی: این گزارش به خوبی نشان میدهد که هوش مصنوعی عمومی فعلی در حوزههای حساسی مثل پزشکی هنوز به بلوغ لازم نرسیده و نیاز به نظارت و تنظیممقررات دقیق دارد. در دنیای کریپتو هم شاهدیم که پروژههای مبتنی بر AI باید شفافیت و دقت بالایی داشته باشند، در غیر اینصورت اعتماد جامعه را به سرعت از دست میدهند. این هشدار یادآوری میکند که در استفاده از هر فناوری نوظهور، از پزشکی تا داراییهای دیجیتال، باید اصل «اعتماد ولی بررسی» (Trust but Verify) را سرلوحه کار قرار داد.
منبع: Decrypt (مشاهده متن اصلی)
n8n.ir/mgb1635i
کپی شد!