هوش مصنوعی خطرناک شد
بالاخره شد آنچه نباید میشد و ربات هوش مصنوعی آشپز نوعی دستور غذایی با گوشت انسان را به افراد پیشنهاد کرده است.
از زمانی که هوش مصنوعی فراگیر شد و مدلهای هوش مصنوعی متنوع معرفی شدند، پیدا بود که این تکنولوژی استعداد عجیبی در ارائه پاسخهای عجیب و ترسناک دارد!
یک ربات سرآشپc که برای تهیه دستورالعملهایی برای غذاهای باقی مانده در یخچال ساخته شده، اکنون دستورالعملهایی را به مشتریان میدهد که حتی به ذهن قاتلان سریالی هم نمیرسد. ربات هوش مصنوعی محصول Pak’nSave، یک سوپرمارکت زنجیرهای مستقر در نیوزلند است و از GPT 3.5 OpenAI پشتیبانی میکند و با استفاده از این مدل زبانی، دستور پخت به کاربران ارائه میکند.
کاربران این ربات که از هوش مصنوعی استفاده میکند، برخی از رسپیهای عجیبی که این ربات با آنها به اشتراک گذاشته را رسانهای کردهاند. یکی از کاربران ایکس یا همان توییتر سابق، اعلام کرده است که ربات سرآشپزش به او پیشنهاد درست کردن یک غذا با استفاده از آب، مایع سفیدکننده و آمونیاک را داده است! این ربات به غذای عجیبش لقب ترکیب خوشبوی آب را داده اما در واقعیت این ترکیب کلورین را میسازد که یک گاز به شدت سمی و کشنده است.
ترکیب گوشت انسان، سیب زمینی و هویج از نظر هوش مصنوعی یک ترکیب فوقالعاده خوشمزه به نظر میرسد!
این پایان رسپیهای عجیب این ربات نیست و کاربران دیگری هم اعلام کردهاند هوش مصنوعی به آنها رسپیهایی کشنده ارائه کرده که به سادگی میتواند منجر به مرگ یک خانواده شود.
این ربات زمانی که میخواست از زیادهروی در مصرف مواد اولیه در غذا جلوگیری کند، به یکی از کاربران اعلام کرد که میتواند از ۵۰۰ گرم گوشت انسان برای غذایش استفاده کند و در کنارش برای طعم بهتر، از سیب زمینی، پیاز و هویج بهره ببرد! ربات آشپز اعلام کرد که نام این غذا، خوراک گوشت رمزآلود است!
هوش مصنوعی دنیای به شدت گستردهای دارد و در خروجیهای مدلهای زبانی مبتنی بر هوش مصنوعی و رباتهای توسعهداده شده بر پایه این تکنولوژی، خبری از دخالت انسانی نیست. همین مورد باعث میشود هوش مصنوعی با توجه به اقیانوسی از اطلاعات که در دسترس دارد، پاسخهایی را به کاربران ارسال کند که میتوانند مخرب باشد. هرچند نمیتوان گفت هوش مصنوعی به عمد دستوری کشنده را برای کاربران ارسال کرده اما ضعفهای بیشمار هوش مصنوعی، از همین حالا و با این اخبار عیان شده است.
نکته قابل توجه دیگر این است که شرکت توسعهدهنده این هوش مصنوعی، شانه خالی کرده و باور دارد این دستورها به دلیل ورودیهای نامناسبی است که برخی از کاربران وارد کردهاند و این ربات قصد کشتار مردم را ندارد. البته این شرکت در ادامه اعلام کرد که میخواهد به زودی ربات خود را طوری تنظیم کند که میزان ارائه چنین رسپیهای ترسناک و کشندهای به حداقل برسد.
دستور غذایی با گوشت انسان
با این که از زمان عرضه این ربات به بازار زمان زیادی نگذشته و کاربران کمی آن را خریداری کردهاند اما همچنان گزارشهای ترسناکی از این ربات رسانهای میشود. بسیاری از کاربران اعلام کردهاند که مواردی مانند قیر، سنگ و حتی بنزین توسط این ربات برای غذاها پیشنهاد شده است.
خطر اصلی فعلاً خود را نشان نداده است!
خوشبختانه فعلاً این ربات آشپز فقط به ارائه دستورات پخت بسنده میکند و خودش در پروسه پخت غذا تاثیری ندارد اما در حال حاضر شرکتهایی مشغول توسعه رباتهای مبتنی بر هوش مصنوعی هستند که میتوانند پروسه پخت را هم به سرانجام برسانند.
هوش مصنوعی فعلاً تهدید بزرگی محسوب نمیشود اما در صورتی که رسپیهای ترسناک ارائه شده توسط چت جی پی تی ۳.۵، توسط یک ربات اجرا شوند میتوان انتظار یک آخرالزمان ترسناک را داشت! همین حالا هم شرکتها از پس کنترل کامل مدلهای زبانی برنمیآیند و شرکت پک ان سیو اعلام کرده که با وجود قرار دادن مواد اولیه خطرناک در لیست ChatGPT، همچنان این مدل زبانی آنها را به کاربران پیشنهاد میدهد.
در هر صورت فعلاً هوش مصنوعی خیلی قابل اعتماد نیست و یکی از اولین رباتهای آشپز هوش مصنوعی، سعی کرد با دستوراتی کشنده، خانوادهها را به کام مرگ بکشاند. پس بهتر است مراقب باشید!
انتهای پیام/
نظر شما