یک مطالعه تازه از دانشگاه آکسفورد زنگ خطر را برای استفاده از چتبات‌های هوش مصنوعی عمومی مانند ChatGPT در حوزه سلامت به صدا درآورده. محققان می‌گویند این ابزارها اغلب در ارائه توصیه‌های پزشکی دچار خطاهای فاحش، اطلاعات گیج‌کننده و ناتوانی در شخصی‌سازی پاسخ‌ها می‌شوند. در واقع، درست مثل یک تازه‌وارد بی‌تجربه در بازار ارز دیجیتال که نسخه یکسان برای همه می‌پیچد، این مدل‌های زبانی هم ممکن است با اطلاعات عمومی و غیرتخصصی، کاربر را به مسیر اشتباهی هدایت کنند.

این پژوهش تأکید می‌کند که مشکل اصلی در معماری و داده‌های آموزشی این مدل‌هاست. آن‌ها برای گفت‌وگوی عمومی طراحی شده‌اند و نه برای جایگزینی مشاوره تخصصی پزشکی. بنابراین، توصیه آن‌ها می‌تواند ناقص، تاریخ گذشته یا حتی متناقض باشد. به زبان ساده، اعتماد کورکورانه به این ابزارها در موضوعی به حساسیت سلامتی، ریسکی به مراتب بالاتر از معامله بر اساس سیگنال یک کانال ناشناس در بازار نزولی (بیریش) دارد.

نظر کارشناسی: این گزارش به خوبی نشان می‌دهد که هوش مصنوعی عمومی فعلی در حوزه‌های حساسی مثل پزشکی هنوز به بلوغ لازم نرسیده و نیاز به نظارت و تنظیم‌مقررات دقیق دارد. در دنیای کریپتو هم شاهدیم که پروژه‌های مبتنی بر AI باید شفافیت و دقت بالایی داشته باشند، در غیر اینصورت اعتماد جامعه را به سرعت از دست می‌دهند. این هشدار یادآوری می‌کند که در استفاده از هر فناوری نوظهور، از پزشکی تا دارایی‌های دیجیتال، باید اصل «اعتماد ولی بررسی» (Trust but Verify) را سرلوحه کار قرار داد.

منبع: Decrypt (مشاهده متن اصلی)