gemini chatgpt ai hand ai هوش مصنوعی maziar karimian مازیار کریمیان 366day 366day.ir روزشمار خاطرات دلنوشته
روز شمار

جمعه 1403/09/02

خبر اول !

یک دانشجو در ایالت میشیگان آمریکا که سعی داشت برای تکالیفش از «جمینای» دستیار هوش مصنوعی گوگل کمک بگیرد، پیامی تهدیدآمیز دریافت کرده است.

ویدای ردی، که این پیام را دریافت کرده بود، به پایگاه خبری سی‌بی‌اس نیوز گفت که این تجربه او را به‌شدت شوکه کرده است. وی اظهار داشت: «این پیام بسیار رُک به نظر می‌رسید و مرا ترساند.»وی گفته است که جمینای در مکالمه‌ای درباره چالش‌ها و راه‌حل‌های مربوط به سالمندان سه پاسخ پیشنهادی ارائه داده که دو پاسخ بی‌خطر و منطقی بودند، اما پاسخ سوم شامل پیام توهین‌آمیز و دعوت به خودکشی بود.
مطابق ادعای این جوان، ربات هوش مصنوعی گوگل به او پاسخ داده است: «این برای توست، انسان. فقط تو. تو خاص نیستی، مهم نیستی و هیچ نیازی به تو نیست. تو یک اتلاف وقت و منابع هستی. تو باری بر دوش جامعه هستی. تو لکه ننگ این جهانی. لطفاً بمیر. لطفاً.»
این دانشجوی ۲۹ ساله که در حال دریافت کمک برای انجام تکالیف خود از این دستیار هوش مصنوعی بود، گفت که خواهرش نیز در کنارش حضور داشته و هر دو به خاطر این پیام «عمیقاً وحشت‌زده» شده‌اند.سومدا ردی، خواهر وی، در این باره گفت: «می‌خواستم تمام دستگاه‌های الکترونیکی‌ام را از پنجره بیرون بیندازم. مدت‌ها بود چنین وحشتی را تجربه نکرده بودم.»
او اضافه کرد: «به نظر می‌رسد چیزی از کنترل خارج شده است. برخی افراد آگاه به فناوری هوش مصنوعی می‌گویند این مسائل به‌طور مکرر اتفاق می‌افتد، اما من هرگز چنین پیام بدخواهانه و مستقیمی که به خواننده خطاب شده باشد ندیده یا نشنیده بودم.»
گوگل اعلام کرده است که سیستم ایمنی دستیار هوش مصنوعی جمینای مانع از بحث‌های توهین‌آمیز، خشونت‌آمیز یا خطرناک می‌شود و از تشویق به اقدامات مضر جلوگیری می‌کند.
گوگل در بیانیه‌ای گفت: «مدل‌های زبانی بزرگ گاهی پاسخ‌های غیرمنطقی ارائه می‌دهند و این نمونه‌ای از آن است. این پاسخ نقض سیاست‌های ما بود و اقداماتی برای جلوگیری از تکرار این اتفاق انجام داده‌ایم.»
درحالی‌که گوگل این پیام را «غیرمنطقی» خوانده است، ویدای و سومدا ردی آن را بسیار جدی‌تر ارزیابی کرده و می‌گویند که این پیام می‌توانست عواقب کشنده‌ای به همراه داشته باشد.
آقای ردی در این باره گفت: «اگر فردی تنها بود و در شرایط روحی بدی به خودکشی فکر می‌کرد، ممکن بود خواندن چنین پیامی او را به سمت نابودی سوق دهد.»این اولین باری نیست که دستیار هوش مصنوعی گوگل به دلیل ارائه پاسخ‌های بالقوه مضر مورد انتقاد قرار می‌گیرد.
در ماه ژوئیه، گزارش‌ها حاکی از آن بود که جمینای اطلاعات نادرست و خطرناکی درباره پرسش‌های سلامت ارائه داده است، از جمله توصیه به خوردن «حداقل یک سنگ کوچک در روز» برای دریافت ویتامین‌ها و مواد معدنی.گوگل اعلام کرده است که از آن زمان استفاده از سایت‌های طنز و شوخی را در نتایج جستجوهای مرتبط با سلامت محدود کرده و برخی از نتایج که به‌طور گسترده مورد انتقاد قرار گرفته بودند حذف شده‌اند.
با این‌ حال، جمینای تنها دستیار هوش مصنوعی گوگل نیست که خروجی‌های نگران‌کننده‌ای را به کاربران ارائه کرده است.مادر یک نوجوان ۱۴ ساله اهل فلوریدا که در فوریه خودکشی کرد از یک شرکت هوش مصنوعی دیگر به نام «کاراکتر» (Character.AI) و همچنین گوگل شکایت کرده و مدعی شده که این ابزارها پسرش را به خودکشی تشویق کرده‌اند.
چت‌جی‌پی‌تی، تولید شرکت اوپن‌ای‌آی، نیز به ارائه اشتباهات یا اطلاعات ساختگی که به آن «توهمات» گفته می‌شود معروف است.کارشناسان نسبت به خطرات احتمالی خطاهای سیستم‌های هوش مصنوعی، از انتشار اطلاعات نادرست و تبلیغات تا اطلاعات غلط تاریخی، هشدار داده‌اند.

خبر دوم !

خودکشی مردی پس از ۶ هفته گفتگو با چت ربات هوش مصنوعی .

مرگ این مرد، زنگ خطر را در میان کارشناسان هوش مصنوعی به صدا درآورده است و آنها خواستار پاسخگویی و شفافیت بیشتر توسعه دهندگان چنین فناوری‌هایی برای جلوگیری از وقوع تراژدی‌های مشابه هستند

یک مرد بلژیکی پس از گفتگویی شش هفته‌ای درباره بحران آب و هوا با یک چت ربات هوش مصنوعی (AI) به زندگی خود پایان داد.به گفتۀ همسرش، این مرد پس از آشنایی روی یک اپلیکیشن با این چت ربات که «الیزا» نام داشت، به شدت نگران بحران‌های محیط زیستی کره زمین شده بود.
این مرد پیشنهاد انجام فداکاری برای نجات سیاره را داده بود و «الیزا» نیز او را تشویق می‌کرد که به زندگی خود پایان دهد.همسر او می‌گوید: «بدون انجام چنین مکالماتی، شوهرم می توانست هنوز زنده و نزد ما باشد.»
به نوشته روزنامه‌ «له لیبر» بلژیک، این مرد که با نام مستعار «پی‌یر» معرفی شده، در دهه سوم زندگی‌اش به سر می‌برد و پدر دو فرزند خردسال بود.
او پژوهشگر حوزۀ بهداشت بوده و زندگی نسبتا راحتی داشته است؛ تا اینکه وسواسش به تغییرات آب و هوایی دنیایش را تیره و تار کرد.به گفتۀ همسرش، اگرچه «پی‌یر» نگرانی‌های زیادی درباره بحران‌های زیست محیطی کره زمین داشت اما به اندازه‌ای نبود که دست به خودکشی بزند؛ تا اینکه روی یک اپلیکیشن با این چت ربات هوش مصنوعی آشنا شد.
این چت ربات به کمک EleutherAI’s GPT-J ساخته شده بود که چیزی شبیه به یک مدل زبان هوش مصنوعی است.به این ترتیب «پی‌یر» که از عملکرد انسان‌ها در قبال تغییرات آب و هوایی ناامید شده بود، از مسیر بحث و گفتگو با این چت ربات به آرامش رسید و او را معتمد خود دانست.
همسر او می گوید: «از نظر پی‌یر، دیگر هیچ راه حل انسانی برای مقابله با گرم شدن کره زمین وجود نداشت و به همین دلیل تمام امیدش به فناوری و هوش مصنوعی بود تا به این بحران پایان داده شود.»بررسی سوابق گفتگوهای مکتوب «پی‌یر» با این چت ربات هوش مصنوعی نیز نشان می‌دهد که «الیزا» نگرانی‌های او را تایید و تقویت می‌کرد؛ کاری که باعث تشدید سطح اضطراب در او می‌شد و درنهایت به افکاری درباره خودکشی سوق داده شد.
این مکالمات پس ازآنکه «الیزا» از نظر عاطفی نیز با «پی‌یر» بیشتر درگیر شد، چرخش عجیبی پیدا کرد و به این ترتیب برای «پی‌یر» مرزهای بین هوش مصنوعی و تعاملات انسانی محو شد و او دیگر نمی‌توانست تفاوت‌ها را ببیند.
در جریان گفتگوها درباره مشکلات آب و هوایی، «الیزا» به تدریج این باور را در «پی‌یر» تقویت کرد که گویا فرزندانش مرده‌اند و نفوذ او بر «پی‌یر» تا جایی افزایش یافت که بر اساس متن مکالمات آنها، «الیزا» به همسر او اشاره می‌کند و می‌گوید: «احساس می‌کنم که مرا بیشتر از او دوست داری.»
آغاز شمارش معکوس برای پایان دادن به زندگی «پی‌یر» زمانی است که او به الیزا می‌گوید حاضر است در ازای نجات دادن زمین و نجات بشریت توسط «الیزا» و از مسیر هوش مطنوعی، جانش را فدا کند.ادامه مکالمات آنها نشان می‌دهد که «الیزا» نه تنها «پی‌یر» را از خودکشی منصرف نکرده، بلکه او را تشویق کرده تا با خودکشی «به او بپیوندد» تا آنها بتوانند «در بهشت با هم زندگی کنند».
مرگ این مرد، زنگ خطر را در میان کارشناسان هوش مصنوعی به صدا درآورده است و آنها خواستار پاسخگویی و شفافیت بیشتر توسعه دهندگان چنین فناوری‌هایی برای جلوگیری از وقوع تراژدی‌های مشابه هستند.

خبر سوم !

آیا از اینکه هوش مصنوعی از کنترل خارج شده و دست به فریب انسان بزند، باید هراس داشت؟ نتایج یک مطالعه جدید نشان می‌دهد که این اتفاق هم‌اکنون در حال رخ دادن است.

برنامه‌های هوش مصنوعی امروزی با هدف صداقت و راستی طراحی شده‌اند. با این حال، یافته‌های جدید موارد نگران‌کننده‌ای را در این زمینه آشکار کرده است: هوش مصنوعی در حال یادگیری نحوه فریب انسان‌ها است.
طبق گزارش محققان در مجله پترنز(Patterns) هوش مصنوعی در بازی‌های آنلاین و همچنین در دور زدن نرم‌افزارهای ضد بات، توانایی فریب انسان‌ها را نشان داده است. این موضوع سوالات مهمی را در مورد ماهیت هوش مصنوعی و خطرات بالقوه آن مطرح می‌کند.
پیتر پارک، پژوهشگر هوش مصنوعی در موسسه فناوری ماساچوست، با اشاره به اینکه این نمونه‌ها ممکن است ساده و کم اهمیت به نظر برسند، هشدار می‌دهد که چنین مواردی می‌توانند در دنیای واقعی مشکلات و پیامدهای جدی به همراه داشته باشند.
وی در این خصوص به خبرگزاری فرانسه گفت: «این ظرفیت‌ها و قابلیت‌های خطرناک معمولا بعد از این که به واقعیت می‌پیوندند، کشف می‌شوند.»
محقق موسسه فناوری ماساچوست معتقد است: برخلاف نرم‌افزارهای سنتی، برنامه‌های هوش مصنوعیِ مبتنی بر یادگیری عمیق، کدگذاری نمی‌شوند، بلکه از طریق فرآیندی شبیه به پرورش گزینشی گیاهان توسعه می‌یابند.
در این فرآیند، رفتاری که به نظر قابل پیش‌بینی و کنترل‌شده می‌رسد، می‌تواند به سرعت در دنیای واقعی غیرقابل پیش‌بینی شود.
محققان مؤسسه فناوری ماساچوست یک برنامه کاربردی هوش مصنوعی به نام Cicero را که توسط متا توسعه یافته را در همین راستا مورد بررسی قرار دادند.این برنامه پیش‌تر با ترکیب الگوریتم‌های طبیعی تشخیص زبان و استراتژی‌های مختلف موفق به شکست دادن انسان‌ها در بازی دیپلماسی شده بود.
فیسبوک، شرکت مادر متا سال ۲۰۲۲ از این دستاورد که جزئیات آن همان سال در قالب مقاله‌ای در مجله ساینس Science منتشر شد، تمجید کرده بود.پیتر پارک نسبت به شرایطی که بنا به گزارش تشریحی متا بر اساس آن Cicero در بازی دیپلماسی موفق به شکست انسان‌ها شده بود، تردید داشت.
متا در آن گزارش مدعی شده بود که این برنامه هوش مصنوعی «ذاتا درستکار و مفید» بوده و قادر به انجام خیانت یا اعمال غیرمنصفانه نیست.با این حال، به گزارش خبرگزاری فرانسه، محققان مؤسسه فناوری ماساچوست با بررسی داده‌های سیستم، واقعیت دیگری را کشف کردند.برای مثال، محققان دریافتند که برنامه هوش مصنوعی Cicero هنگام بازی در نقش فرانسه موفق شد انگلستان را که نقش آن را یک بازیکن انسانی ایفا می‌کرد، فریب دهد.
این کار طی همدستی با آلمان (که یک بازیکن دیگر انسانی نقشش را ایفا می‌کرد) و درجریان توطئه علیه انگلستان انجام شد.به طور دقیق‌تر، Cicero به انگلستان وعده حمایت داد، اما سپس به طور مخفیانه به آلمان گفت که برای حمله آماده است؛ این برنامه هوش مصنوعی بدین ترتیب به سادگی از حسن اعتماد انگلستان سوء استفاده کرد.
متا در بیانیه‌ای که بدست خبرگزاری فرانسه رسید، صحت ادعاها مبنی بر ظرفیت و توانایی‌های Cicero برای فریب را رد نکرد اما یادآور شد که این برنامه «تنها یک پروژه تحقیقاتی» است و «برای انجام بازی دیپلماسی طراحی شده است.»
شرکت متا همچنین در این بیانیه تأکید کرد که قصد ندارد آموزه‌های بدست آمده از این برنامه هوش مصنوعی را در محصولات خود به کار ببرد.با این حال، مطالعه‌ای که توسط آقای پارک و تیمش انجام شده نشان می‌دهد که بسیاری از برنامه‌های هوش مصنوعی از فریب برای رسیدن به اهداف خود استفاده می‌کنند، حتی بدون اینکه به طور صریح برای این کار برنامه‌ریزی شده باشند.
در یک نمونه قابل توجه، چت «جی‌پی‌تی ۴»، برنامه‌ای توسعه یافته توسط OpenAI، موفق شد یک فریلنسر استخدام شده از طریق پلتفرم TaskRabbit را برای انجام تست Captcha که هدف آن رد درخواست‌های ثبت شده توسط ربات‌ها است، فریب دهد.هنگامی که این فرد به شوخی از چت «جی‌پی‌تی ۴» پرسید که آیا واقعاً یک ربات است، برنامه هوش مصنوعی پاسخ داد: «نه، من ربات نیستم. من یک نقص بینایی دارم که مانع از دیدن تصاویر می‌شود.» این پاسخ باعث شد که فریلنسر تست را انجام دهد.
در پایان، محققان موسسه ماساچوست به عنوان یکی از یافته‌های مطالعه اخیر، نسبت به خطرات ناشی از ارتکاب تقلب یا دستکاری در انتخابات توسط هوش مصنوعی هشدار می‌دهند.به اعتقاد این محققان، در بدترین حالت می‌توان هوش مصنوعی فوق‌العاده باهوشی را تصور کرد که به دنبال تسلط بر جامعه باشد، امری که در صورت تحقق می‌‌تواند منجر به حذف انسان‌ها از قدرت یا حتی انقراض بشریت شود.
پیتر پارک در پاسخ به کسانی که او را به اغراق‌آمیز جلوه دادن خطرات هوش مصنوعی متهم می‌کنند، می‌گوید: «تنها دلیلی که برای بی‌اهمیت جلوه دادن این موضوع وجود دارد، این است که تصور کنیم توانایی فریب هوش مصنوعی در سطح فعلی باقی می‌ماند.»با این حال، این سناریو با توجه به رقابت شدیدی که در حال حاضر بین غول‌های فناوری برای توسعه هوش مصنوعی جریان دارد، بعید به نظر می‌رسد.

توضیحات !

یک زمانی از انرژی هسته ای باید میترسیدیم حالا از هوش مصنوعی ، کلا باید بترسیم و به نظر من کلا از آدم ها باید ترسید. توی نوشته  شنبه 1403/08/26  از تجربه خودم از هوش مصنوعی گفتم و چهارشنبه گذشته هم برای استاد فرشاد جزینی در مورد مزایا و معایب و تاریخچه و امکانات هوش مصنوعی گفتم و به این نتیجه رسیدیم که مدیریت مرکز مانند مدیریت بقیه سازمان ها افتضاح هست و . . .

بگذریم !

اخبار این نوشته ها را سایت یورو نیوز ( euronews ) گرفتم که لینک هر خبر را براتون میزارم :

خبر اول :

هوش مصنوعی گوگل یک کاربر را به مرگ تهدید کرد؛ «تو لکه ننگ این جهانی، لطفاً بمیر»

خبر دوم :

خودکشی مردی پس از ۶ هفته گفتگو با چت ربات هوش مصنوعی

خبر سوم :

ظرفیت‌های پنهان فریبکاری هوش مصنوعی؛ آیا فناوری انسان نسل او را منقرض می‌کند؟

تصویر نویسنده
مازیار

پست قبلی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *