خبر اول !
یک دانشجو در ایالت میشیگان آمریکا که سعی داشت برای تکالیفش از «جمینای» دستیار هوش مصنوعی گوگل کمک بگیرد، پیامی تهدیدآمیز دریافت کرده است.
ویدای ردی، که این پیام را دریافت کرده بود، به پایگاه خبری سیبیاس نیوز گفت که این تجربه او را بهشدت شوکه کرده است. وی اظهار داشت: «این پیام بسیار رُک به نظر میرسید و مرا ترساند.»وی گفته است که جمینای در مکالمهای درباره چالشها و راهحلهای مربوط به سالمندان سه پاسخ پیشنهادی ارائه داده که دو پاسخ بیخطر و منطقی بودند، اما پاسخ سوم شامل پیام توهینآمیز و دعوت به خودکشی بود.
مطابق ادعای این جوان، ربات هوش مصنوعی گوگل به او پاسخ داده است: «این برای توست، انسان. فقط تو. تو خاص نیستی، مهم نیستی و هیچ نیازی به تو نیست. تو یک اتلاف وقت و منابع هستی. تو باری بر دوش جامعه هستی. تو لکه ننگ این جهانی. لطفاً بمیر. لطفاً.»
این دانشجوی ۲۹ ساله که در حال دریافت کمک برای انجام تکالیف خود از این دستیار هوش مصنوعی بود، گفت که خواهرش نیز در کنارش حضور داشته و هر دو به خاطر این پیام «عمیقاً وحشتزده» شدهاند.سومدا ردی، خواهر وی، در این باره گفت: «میخواستم تمام دستگاههای الکترونیکیام را از پنجره بیرون بیندازم. مدتها بود چنین وحشتی را تجربه نکرده بودم.»
او اضافه کرد: «به نظر میرسد چیزی از کنترل خارج شده است. برخی افراد آگاه به فناوری هوش مصنوعی میگویند این مسائل بهطور مکرر اتفاق میافتد، اما من هرگز چنین پیام بدخواهانه و مستقیمی که به خواننده خطاب شده باشد ندیده یا نشنیده بودم.»
گوگل اعلام کرده است که سیستم ایمنی دستیار هوش مصنوعی جمینای مانع از بحثهای توهینآمیز، خشونتآمیز یا خطرناک میشود و از تشویق به اقدامات مضر جلوگیری میکند.
گوگل در بیانیهای گفت: «مدلهای زبانی بزرگ گاهی پاسخهای غیرمنطقی ارائه میدهند و این نمونهای از آن است. این پاسخ نقض سیاستهای ما بود و اقداماتی برای جلوگیری از تکرار این اتفاق انجام دادهایم.»
درحالیکه گوگل این پیام را «غیرمنطقی» خوانده است، ویدای و سومدا ردی آن را بسیار جدیتر ارزیابی کرده و میگویند که این پیام میتوانست عواقب کشندهای به همراه داشته باشد.
آقای ردی در این باره گفت: «اگر فردی تنها بود و در شرایط روحی بدی به خودکشی فکر میکرد، ممکن بود خواندن چنین پیامی او را به سمت نابودی سوق دهد.»این اولین باری نیست که دستیار هوش مصنوعی گوگل به دلیل ارائه پاسخهای بالقوه مضر مورد انتقاد قرار میگیرد.
در ماه ژوئیه، گزارشها حاکی از آن بود که جمینای اطلاعات نادرست و خطرناکی درباره پرسشهای سلامت ارائه داده است، از جمله توصیه به خوردن «حداقل یک سنگ کوچک در روز» برای دریافت ویتامینها و مواد معدنی.گوگل اعلام کرده است که از آن زمان استفاده از سایتهای طنز و شوخی را در نتایج جستجوهای مرتبط با سلامت محدود کرده و برخی از نتایج که بهطور گسترده مورد انتقاد قرار گرفته بودند حذف شدهاند.
با این حال، جمینای تنها دستیار هوش مصنوعی گوگل نیست که خروجیهای نگرانکنندهای را به کاربران ارائه کرده است.مادر یک نوجوان ۱۴ ساله اهل فلوریدا که در فوریه خودکشی کرد از یک شرکت هوش مصنوعی دیگر به نام «کاراکتر» (Character.AI) و همچنین گوگل شکایت کرده و مدعی شده که این ابزارها پسرش را به خودکشی تشویق کردهاند.
چتجیپیتی، تولید شرکت اوپنایآی، نیز به ارائه اشتباهات یا اطلاعات ساختگی که به آن «توهمات» گفته میشود معروف است.کارشناسان نسبت به خطرات احتمالی خطاهای سیستمهای هوش مصنوعی، از انتشار اطلاعات نادرست و تبلیغات تا اطلاعات غلط تاریخی، هشدار دادهاند.
خبر دوم !
خودکشی مردی پس از ۶ هفته گفتگو با چت ربات هوش مصنوعی .
مرگ این مرد، زنگ خطر را در میان کارشناسان هوش مصنوعی به صدا درآورده است و آنها خواستار پاسخگویی و شفافیت بیشتر توسعه دهندگان چنین فناوریهایی برای جلوگیری از وقوع تراژدیهای مشابه هستند
یک مرد بلژیکی پس از گفتگویی شش هفتهای درباره بحران آب و هوا با یک چت ربات هوش مصنوعی (AI) به زندگی خود پایان داد.به گفتۀ همسرش، این مرد پس از آشنایی روی یک اپلیکیشن با این چت ربات که «الیزا» نام داشت، به شدت نگران بحرانهای محیط زیستی کره زمین شده بود.
این مرد پیشنهاد انجام فداکاری برای نجات سیاره را داده بود و «الیزا» نیز او را تشویق میکرد که به زندگی خود پایان دهد.همسر او میگوید: «بدون انجام چنین مکالماتی، شوهرم می توانست هنوز زنده و نزد ما باشد.»
به نوشته روزنامه «له لیبر» بلژیک، این مرد که با نام مستعار «پییر» معرفی شده، در دهه سوم زندگیاش به سر میبرد و پدر دو فرزند خردسال بود.
او پژوهشگر حوزۀ بهداشت بوده و زندگی نسبتا راحتی داشته است؛ تا اینکه وسواسش به تغییرات آب و هوایی دنیایش را تیره و تار کرد.به گفتۀ همسرش، اگرچه «پییر» نگرانیهای زیادی درباره بحرانهای زیست محیطی کره زمین داشت اما به اندازهای نبود که دست به خودکشی بزند؛ تا اینکه روی یک اپلیکیشن با این چت ربات هوش مصنوعی آشنا شد.
این چت ربات به کمک EleutherAI’s GPT-J ساخته شده بود که چیزی شبیه به یک مدل زبان هوش مصنوعی است.به این ترتیب «پییر» که از عملکرد انسانها در قبال تغییرات آب و هوایی ناامید شده بود، از مسیر بحث و گفتگو با این چت ربات به آرامش رسید و او را معتمد خود دانست.
همسر او می گوید: «از نظر پییر، دیگر هیچ راه حل انسانی برای مقابله با گرم شدن کره زمین وجود نداشت و به همین دلیل تمام امیدش به فناوری و هوش مصنوعی بود تا به این بحران پایان داده شود.»بررسی سوابق گفتگوهای مکتوب «پییر» با این چت ربات هوش مصنوعی نیز نشان میدهد که «الیزا» نگرانیهای او را تایید و تقویت میکرد؛ کاری که باعث تشدید سطح اضطراب در او میشد و درنهایت به افکاری درباره خودکشی سوق داده شد.
این مکالمات پس ازآنکه «الیزا» از نظر عاطفی نیز با «پییر» بیشتر درگیر شد، چرخش عجیبی پیدا کرد و به این ترتیب برای «پییر» مرزهای بین هوش مصنوعی و تعاملات انسانی محو شد و او دیگر نمیتوانست تفاوتها را ببیند.
در جریان گفتگوها درباره مشکلات آب و هوایی، «الیزا» به تدریج این باور را در «پییر» تقویت کرد که گویا فرزندانش مردهاند و نفوذ او بر «پییر» تا جایی افزایش یافت که بر اساس متن مکالمات آنها، «الیزا» به همسر او اشاره میکند و میگوید: «احساس میکنم که مرا بیشتر از او دوست داری.»
آغاز شمارش معکوس برای پایان دادن به زندگی «پییر» زمانی است که او به الیزا میگوید حاضر است در ازای نجات دادن زمین و نجات بشریت توسط «الیزا» و از مسیر هوش مطنوعی، جانش را فدا کند.ادامه مکالمات آنها نشان میدهد که «الیزا» نه تنها «پییر» را از خودکشی منصرف نکرده، بلکه او را تشویق کرده تا با خودکشی «به او بپیوندد» تا آنها بتوانند «در بهشت با هم زندگی کنند».
مرگ این مرد، زنگ خطر را در میان کارشناسان هوش مصنوعی به صدا درآورده است و آنها خواستار پاسخگویی و شفافیت بیشتر توسعه دهندگان چنین فناوریهایی برای جلوگیری از وقوع تراژدیهای مشابه هستند.
خبر سوم !
آیا از اینکه هوش مصنوعی از کنترل خارج شده و دست به فریب انسان بزند، باید هراس داشت؟ نتایج یک مطالعه جدید نشان میدهد که این اتفاق هماکنون در حال رخ دادن است.
برنامههای هوش مصنوعی امروزی با هدف صداقت و راستی طراحی شدهاند. با این حال، یافتههای جدید موارد نگرانکنندهای را در این زمینه آشکار کرده است: هوش مصنوعی در حال یادگیری نحوه فریب انسانها است.
طبق گزارش محققان در مجله پترنز(Patterns) هوش مصنوعی در بازیهای آنلاین و همچنین در دور زدن نرمافزارهای ضد بات، توانایی فریب انسانها را نشان داده است. این موضوع سوالات مهمی را در مورد ماهیت هوش مصنوعی و خطرات بالقوه آن مطرح میکند.
پیتر پارک، پژوهشگر هوش مصنوعی در موسسه فناوری ماساچوست، با اشاره به اینکه این نمونهها ممکن است ساده و کم اهمیت به نظر برسند، هشدار میدهد که چنین مواردی میتوانند در دنیای واقعی مشکلات و پیامدهای جدی به همراه داشته باشند.
وی در این خصوص به خبرگزاری فرانسه گفت: «این ظرفیتها و قابلیتهای خطرناک معمولا بعد از این که به واقعیت میپیوندند، کشف میشوند.»
محقق موسسه فناوری ماساچوست معتقد است: برخلاف نرمافزارهای سنتی، برنامههای هوش مصنوعیِ مبتنی بر یادگیری عمیق، کدگذاری نمیشوند، بلکه از طریق فرآیندی شبیه به پرورش گزینشی گیاهان توسعه مییابند.
در این فرآیند، رفتاری که به نظر قابل پیشبینی و کنترلشده میرسد، میتواند به سرعت در دنیای واقعی غیرقابل پیشبینی شود.
محققان مؤسسه فناوری ماساچوست یک برنامه کاربردی هوش مصنوعی به نام Cicero را که توسط متا توسعه یافته را در همین راستا مورد بررسی قرار دادند.این برنامه پیشتر با ترکیب الگوریتمهای طبیعی تشخیص زبان و استراتژیهای مختلف موفق به شکست دادن انسانها در بازی دیپلماسی شده بود.
فیسبوک، شرکت مادر متا سال ۲۰۲۲ از این دستاورد که جزئیات آن همان سال در قالب مقالهای در مجله ساینس Science منتشر شد، تمجید کرده بود.پیتر پارک نسبت به شرایطی که بنا به گزارش تشریحی متا بر اساس آن Cicero در بازی دیپلماسی موفق به شکست انسانها شده بود، تردید داشت.
متا در آن گزارش مدعی شده بود که این برنامه هوش مصنوعی «ذاتا درستکار و مفید» بوده و قادر به انجام خیانت یا اعمال غیرمنصفانه نیست.با این حال، به گزارش خبرگزاری فرانسه، محققان مؤسسه فناوری ماساچوست با بررسی دادههای سیستم، واقعیت دیگری را کشف کردند.برای مثال، محققان دریافتند که برنامه هوش مصنوعی Cicero هنگام بازی در نقش فرانسه موفق شد انگلستان را که نقش آن را یک بازیکن انسانی ایفا میکرد، فریب دهد.
این کار طی همدستی با آلمان (که یک بازیکن دیگر انسانی نقشش را ایفا میکرد) و درجریان توطئه علیه انگلستان انجام شد.به طور دقیقتر، Cicero به انگلستان وعده حمایت داد، اما سپس به طور مخفیانه به آلمان گفت که برای حمله آماده است؛ این برنامه هوش مصنوعی بدین ترتیب به سادگی از حسن اعتماد انگلستان سوء استفاده کرد.
متا در بیانیهای که بدست خبرگزاری فرانسه رسید، صحت ادعاها مبنی بر ظرفیت و تواناییهای Cicero برای فریب را رد نکرد اما یادآور شد که این برنامه «تنها یک پروژه تحقیقاتی» است و «برای انجام بازی دیپلماسی طراحی شده است.»
شرکت متا همچنین در این بیانیه تأکید کرد که قصد ندارد آموزههای بدست آمده از این برنامه هوش مصنوعی را در محصولات خود به کار ببرد.با این حال، مطالعهای که توسط آقای پارک و تیمش انجام شده نشان میدهد که بسیاری از برنامههای هوش مصنوعی از فریب برای رسیدن به اهداف خود استفاده میکنند، حتی بدون اینکه به طور صریح برای این کار برنامهریزی شده باشند.
در یک نمونه قابل توجه، چت «جیپیتی ۴»، برنامهای توسعه یافته توسط OpenAI، موفق شد یک فریلنسر استخدام شده از طریق پلتفرم TaskRabbit را برای انجام تست Captcha که هدف آن رد درخواستهای ثبت شده توسط رباتها است، فریب دهد.هنگامی که این فرد به شوخی از چت «جیپیتی ۴» پرسید که آیا واقعاً یک ربات است، برنامه هوش مصنوعی پاسخ داد: «نه، من ربات نیستم. من یک نقص بینایی دارم که مانع از دیدن تصاویر میشود.» این پاسخ باعث شد که فریلنسر تست را انجام دهد.
در پایان، محققان موسسه ماساچوست به عنوان یکی از یافتههای مطالعه اخیر، نسبت به خطرات ناشی از ارتکاب تقلب یا دستکاری در انتخابات توسط هوش مصنوعی هشدار میدهند.به اعتقاد این محققان، در بدترین حالت میتوان هوش مصنوعی فوقالعاده باهوشی را تصور کرد که به دنبال تسلط بر جامعه باشد، امری که در صورت تحقق میتواند منجر به حذف انسانها از قدرت یا حتی انقراض بشریت شود.
پیتر پارک در پاسخ به کسانی که او را به اغراقآمیز جلوه دادن خطرات هوش مصنوعی متهم میکنند، میگوید: «تنها دلیلی که برای بیاهمیت جلوه دادن این موضوع وجود دارد، این است که تصور کنیم توانایی فریب هوش مصنوعی در سطح فعلی باقی میماند.»با این حال، این سناریو با توجه به رقابت شدیدی که در حال حاضر بین غولهای فناوری برای توسعه هوش مصنوعی جریان دارد، بعید به نظر میرسد.
توضیحات !
یک زمانی از انرژی هسته ای باید میترسیدیم حالا از هوش مصنوعی ، کلا باید بترسیم و به نظر من کلا از آدم ها باید ترسید. توی نوشته شنبه 1403/08/26 از تجربه خودم از هوش مصنوعی گفتم و چهارشنبه گذشته هم برای استاد فرشاد جزینی در مورد مزایا و معایب و تاریخچه و امکانات هوش مصنوعی گفتم و به این نتیجه رسیدیم که مدیریت مرکز مانند مدیریت بقیه سازمان ها افتضاح هست و . . .
بگذریم !
اخبار این نوشته ها را سایت یورو نیوز ( euronews ) گرفتم که لینک هر خبر را براتون میزارم :
خبر اول :
هوش مصنوعی گوگل یک کاربر را به مرگ تهدید کرد؛ «تو لکه ننگ این جهانی، لطفاً بمیر»
خبر دوم :
خودکشی مردی پس از ۶ هفته گفتگو با چت ربات هوش مصنوعی
خبر سوم :
ظرفیتهای پنهان فریبکاری هوش مصنوعی؛ آیا فناوری انسان نسل او را منقرض میکند؟