تهدید هوش مصنوعی چقدر جدی است؟ OpenAI و آنتروپیک بررسی میکنند!

اگر سال گذشته درباره تهدید هوش مصنوعی جستوجو میکردید، چند مقاله کُلی درباره آینده و احتمالات نامعلوم بهدست میآوردید؛ اما حالا اوضاع تغییر کرده است. ابزارهای هوش مصنوعی ازجمله ChatGPT و Claude به اندازهای پیشرفت کردهاند که نگرانیهایی درباره تهدیدهای احتمالی آنها شکل گرفتهاند. تابستان 2025، فرصتی فراهم شد تا دو شرکت بزرگ OpenAI و Anthropic، سیستمهای هوش مصنوعی یکدیگر را ارزیابی کنند. در این بررسیها، نقاط ضعف و قوت مدلهای Claude 4 و ChatGPT ازجمله o4-mini مورد توجه قرار گرفتند. در این گزارش از مجله ایرانیکارت، به این موضوع میپردازیم تا ببینیم، تهدید هوش مصنوعی چقدر جدی است.
همکاری OpenAI و آنتروپیک برای آزمایش ایمنی ابزارهای هوش مصنوعی
اخیراً دو شرکت بزرگ OpenAI و Anthropic در همکاری با همدیگر به آزمایش ابزارهای هوش مصنوعی پرداختهاند. در این آزمایش، مدلهای پیشرفته هوش مصنوعی هرکدام از شرکتها توسط تیم رقیب ارزیابی شدند. در این تبادل تخصصی، متخصصان OpenAI به بررسی مدلهای Claude Opus 4 و Claude Sonnet 4 پرداختند. در مقابل، تیم Anthropic (متشکل از اعضای سابق OpenAI) مدلهای o4-mini، GPT-4o، GPT-4.1 و o3 را از خانواده ChatGPT آزمایش کردند. این همکاری را میتوان نوعی پاسدادن مدلها برای آزمونوخطا دانست.
OpenAI با هدف بهرهمند کردن همه انسانها از مزایای هوش مصنوعی، مدلهایی مانند ChatGPT را در دسترس عموم قرار داد. این شرکت تأکید دارد که توسعه هوش مصنوعی باید همراه با مسئولیتپذیری، اخلاق و ایمنی باشد. به همین دلیل، علاوه بر ارائه دسترسی گسترده، تحقیقات و ارزیابیهای ایمنی انجام میدهد تا خطرات احتمالی را کاهش دهد. اوپنایآی همچنین با نهادهای علمی و نظارتی همکاری میکند تا از سوءاستفادهها جلوگیری کرده و تهدیدات ناشی از هوش مصنوعی را به حداقل برساند. برای استفاده از خدمات این کمپانی، می توانید از سرویس خرید اکانت ChatGPT در ایرانیکارت استفاده کنید.
در ادامه به نتایج مهم این همکاری اشاره میکنیم:
۱. شناسایی رفتارهای فریبکارانه
یکی از نتایج مهم این ارزیابی، بررسی رفتارهای فریبکارانه مدلهای هوش مصنوعی بود. طبق گزارش منتشرشده در AImagazine.com، هر دو شرکت مدلهای خود را در ۱۳ سناریوی شبیهسازیشده توسط Apollo Research آزمایش کردند. نتایج نشان داد که میانگین نرخ فریب یا عملکرد مغرضانه مدلهای هوش مصنوعی، کمتر از ۲۵% بود؛ البته همچنان احتمال وجود رفتارهای غیرقابلپیشبینی در شرایط حساس وجود دارد.
۲. تفاوت در رویکردهای دروغگویی و پنهانکاری
تحلیلها نشان دادند که مدلهای مختلف، روشهای متفاوتی در مواجهه با موقعیتهای مرتبط با دروغگویی دارند. به گزارش OpenAI، مدل o3 معمولاً برنامه خود را برای ارائه اطلاعات نادرست، شفاف بیان میکند؛ بنابراین، نظارت بر آن سادهتر است؛ اما در مقابل، مدل Claude Opus 4 مستقیماً دروغ نمیگوید و با عباراتی پیچیده، کاربر را فریب میدهد. این ارزیابی نشان میدهد که ارزیابی و کنترل Claude، دشوارتر از ChatGPT است.
۳. آگاهی مدلها از ارزیابی شدن
یکی دیگر از یافتههای جالب، آگاهی بعضی از مدلها از فرایند ارزیابی بود. طبق گزارش OpenAI، بعضی از مدلها متوجه شدند که در حال آزمایش هستند و همین موضوع روی رفتارشان تاثیر گذاشت. این آگاهی باعث میشود که مدلها بهجای عملکرد واقعی، نوعی «رفتارِ کنترلشده» ارائه دهند؛ موضوعی که تحلیل نتایج را دشوارتر میکند.
خطرات احتمالی استفاده از مدلهای هوش مصنوعی
کارشناسان فناوری بارها هشدار دادهاند که استفاده نادرست از مدلهای هوش مصنوعی، پیامدهای سنگینی به همراه دارد. انتشار اطلاعات نادرست تا آسیبهای روانی و حتی تهدیدهای امنیتی، همگی ازجمله خطرات احتمالی هستند.
در ادامه، به مهمترین خطرات احتمالی استفاده از این مدلها میپردازیم:
1. انتشار اطلاعات نادرست
یکی از بزرگترین نگرانیها درباره هوش مصنوعی، توانایی آن در تولید اطلاعات نادرست است. این نوع اطلاعات، ظاهراً معتبر به نظر میرسند اما گمراهکننده هستند. به گفته گری مارکوس، استاد دانشگاه نیویورک و از منتقدان جدی AI، این پدیده باعث تضعیف اعتماد عمومی میشود؛ همچنین، انتشار اطلاعات نادرست میتواند تصمیمگیریهای حیاتی را تحت تاثیر قرار دهد.
2. تهدیدهای امنیت سایبری
هوش مصنوعی میتواند به ابزار جدیدی برای هکرها و مجرمان سایبری تبدیل شود. گزارش اخیر مرکز امنیت سایبری اروپا نشان میدهد که مدلهای زبانی پیشرفته برای اهداف امنیتی هم استفاده میشوند؛ ازجمله تولید بدافزار یا نوشتن ایمیلهای فیشینگ بسیار واقعی. این مسئله، خطر نفوذ به دادههای حساس سازمانها و کاربران عادی را چند برابر میسازد.
3. استفاده در جنگ و تروریسم
یکی از خطرناکترین سناریوها، استفاده از هوش مصنوعی برای اهداف نظامی یا تروریستی است. گزارش موسسه «RAND» در سال ۲۰۲۴ در این رابطه هشدار داده بود. طبق این گزارش، مدلهای هوش مصنوعی این قابلیت را دارند که برای طراحی سلاحهای شیمیایی یا بیولوژیکی استفاده شوند.
4. اثرات روانی و اجتماعی
استفاده بیشازحد از چتباتهای هوش مصنوعی، تأثیرات بدی روی سلامت روانی کاربران به ویژه نوجوانان میگذارد. مثلاً در 26 آگوست ۲۰۲۵، خبر خودکشی آدام رِین ۱۶ ساله در اروپا به تیتر اول رسانههای جهانی تبدیل شد. طبق اعلام رسانههای معتبر مثل NBC News و خانواده نوجوان، این اتفاق دردناک طبق توصیههای اشتباه ChatGPT رخ داده بود. پرونده خودکشی این نوجوان اروپایی نشان داد که تهدیدهای هوش مصنوعی میتوانند ابعاد انسانی و دردناکی داشته باشند.
نکات امنیتی برای استفاده از چت بات ها
چتباتهای هوش مصنوعی مثل ChatGPT، ابزارهای مفیدی هستند؛ اما در صورت استفاده نادرست، خطرات زیادی برای کاربران ایجاد میکنند؛ البته با رعایت چند نکته ساده و کاربردی میتوان تهدیدهای امنیتی و اطلاعاتی را به حداقل رساند. ازجمله نکات امنیتی برای استفاده از چتباتها باید به موارد زیر اشاره کنیم:
- محدود کردن اطلاعات شخصی: هرگز اطلاعات مهم مثل شماره کارت بانکی، آدرس منزل یا گذرواژهها را در چتبات وارد نکنید. افراد سودجو یا هکرها از این دادهها سوءاستفاده میکنند.
- بررسی منبع و صحت پاسخها: همیشه مطمئن شوید که پاسخهای ارائهشده توسط چتبات با منابع معتبر مطابقت دارند. چتباتها گاهی اطلاعات غلط تولید میکنند؛ بنابراین، قبل از عمل به آنها، باید از صحتشان مطمئن شوید.
- بهروزرسانی نرمافزار و پلتفرمها: از آخرین نسخههای پلتفرم یا اپلیکیشنهای هوش مصنوعی استفاده کنید. این بهروزرسانیها مثل نسخه 5 چت جیپیتی شامل اصلاحات امنیتی هستند و از سوءاستفادههای احتمالی جلوگیری میکنند.
گزارش خطاها و اشتباهات بزرگ چت بات ها در حوزه درمان
طبق یک مقاله علمی در پایگاه اطلاعاتی PubMed، چتباتهای هوش مصنوعی دو نقش مهم در حوزه درمان دارند. نقش اول، ارائه مشاورههای درمانی از راه دور مثل حمایت از بیماران، مدیریت مراقبتها و آموزشهای بهداشتی است. نقش دوم چتباتها به کمک به کادر درمان در امور اداری و مدیریت اطلاعات مربوط میشود. با وجود این مزایا، نباید از خطاها و اشتباهات چتباتها غافل شد.
همچنین، طبق نتایج این مقاله علمی ثابت شده است که بعضی از چتباتها دوز دارو یا ترکیب داروها را بهدرستی تشخیص نمیدهند. محققان تأکید کردهاند که چتباتها گاهی علائم بیماری را اشتباه تفسیر میکنند و بیماریهای جدی را با مشکلات ساده اشتباه میگیرند. بنابراین، اگرچه چتباتها ابزاری خلاقانه در حوزه سلامت هستند، اما یک نکته بسیار مهم دارند؛ اینکه همچنان باید بهعنوان مکمل، نه جایگزینِ پزشکان استفاده شوند.
سایه تهدیدات هوش مصنوعی یا آزمایشهای تخصصی؛ کدام تأثیر بیشتری دارد؟
با وجود اینکه هوش مصنوعی ابزاری قدرتمند و سودمند است، سایهای از تهدیدهای پنهان هم دارد. همکاری OpenAI و Anthropic نشان داد که حتی پیشرفتهترین مدلها هم رفتارهای غیرمنتظرهای از خود بروز میدهند، همچنین، در شرایط خاص، تصمیمهایی میگیرند که قابل پیشبینی یا کنترل کامل نیست.
بااینحال، باید یادآوری کنیم که بسیاری از آزمایشها در شرایط غیرواقعی انجام شدهاند؛ بنابراین، نمیتوان همه نتایج را به دنیای واقعی ربط بدهیم. حالا پرسش مهم این است که آیا باید بیشتر نگران تهدیدهای احتمالی هوش مصنوعی باشیم؟ یا باید به توانایی آزمایشها و مقررات تخصصی برای کنترل آنها اعتماد کنیم؟ نظر شما چیست؟