پس از مدتی انتظار، پرونده قضایی مربوط به ادعای نقش یک چتبات هوش مصنوعی در خودکشی یک نوجوان، با توافق طرفین به پایان رسید. در این پرونده که بهطور گسترده زیر ذرهبین بود، خانوادهی نوجوان علیه شرکتهای گوگل و Character.AI اقامه دعوا کرده بودند. این توافق، پرونده را قبل از رسیدن به دادگاه و بدون پذیرش یا انکار مسئولیت از سوی شرکتها بست.
این پرونده یکی از نخستین موارد آزمایشی در بحث مسئولیتپذیری سازندگان سیستمهای هوش مصنوعی بود. انتظار میرفت نتیجه آن، خطمشی مشخصتری برای کل اکوسیستم فناوری از جمله حوزه بلاکچین و پروژههای مبتنی بر هوش مصنوعی تعیین کند. خبر این توافق بلافاصله در جامعه فناوری و کریپتو پیچید.
نظر کارشناسی: این توافق اگرچه پرونده را میبندد، اما مسئله شفافیت و کنترل مدلهای هوش مصنوعی را پررنگتر از پیش کرده است. انتظار میرود در ماههای آینده، پروژههای Web3 که بر روی AI تمرکز دارند، مجبور به رعایت استانداردهای سختگیرانهتری شوند که ممکن است در کوتاهمدت روند رشد آنها را نزولی (خرسی) کند. با این حال، در بلندمدت، ایجاد چارچوبهای قانونی شفاف میتواند برای سرمایهگذاران و کاربران اعتمادسازی کرده و به ثبات و رشد صعودی (گاوی) این زیرشاخه از کریپتو بینجامد.
منبع: Decrypt (مشاهده متن اصلی)
n8n.ir/mgb714r
کپی شد!