اکانت های خارجی

تهدید هوش مصنوعی چقدر جدی است؟ OpenAI و آنتروپیک بررسی می‌کنند!

تهدید هوش مصنوعی چقدر جدی است؟ OpenAI و آنتروپیک بررسی می‌کنند!

اگر سال گذشته درباره تهدید هوش مصنوعی جست‌وجو می‌کردید، چند مقاله کُلی درباره آینده و احتمالات نامعلوم به‌دست می‌آوردید؛ اما حالا اوضاع تغییر کرده است. ابزارهای هوش مصنوعی ازجمله ChatGPT و Claude به اندازه‌ای پیشرفت کرده‌اند که نگرانی‌هایی درباره تهدیدهای احتمالی آن‌ها شکل گرفته‌اند. تابستان 2025، فرصتی فراهم شد تا دو شرکت بزرگ OpenAI و Anthropic، سیستم‌های هوش مصنوعی یکدیگر را ارزیابی کنند. در این بررسی‌ها، نقاط ضعف و قوت مدل‌های Claude 4 و ChatGPT ازجمله o4-mini مورد توجه قرار گرفتند. در این گزارش از مجله ایرانیکارت، به این موضوع می‌پردازیم تا ببینیم، تهدید هوش مصنوعی چقدر جدی است.

همکاری OpenAI و آنتروپیک برای آزمایش ایمنی ابزارهای هوش مصنوعی

اخیراً دو شرکت بزرگ OpenAI و Anthropic در همکاری با همدیگر به آزمایش ابزارهای هوش مصنوعی پرداخته‌اند. در این آزمایش، مدل‌های پیشرفته هوش مصنوعی هرکدام از شرکت‌ها توسط تیم رقیب ارزیابی شدند. در این تبادل تخصصی، متخصصان OpenAI به بررسی مدل‌های Claude Opus 4 و Claude Sonnet 4 پرداختند. در مقابل، تیم Anthropic (متشکل از اعضای سابق OpenAI) مدل‌های o4-mini، GPT-4o، GPT-4.1 و o3 را از خانواده ChatGPT آزمایش کردند. این همکاری را می‌توان نوعی پاس‌دادن مدل‌ها برای آزمون‌وخطا دانست.

OpenAI با هدف بهره‌مند کردن همه انسان‌ها از مزایای هوش مصنوعی، مدل‌هایی مانند ChatGPT را در دسترس عموم قرار داد. این شرکت تأکید دارد که توسعه هوش مصنوعی باید همراه با مسئولیت‌پذیری، اخلاق و ایمنی باشد. به همین دلیل، علاوه بر ارائه دسترسی گسترده، تحقیقات و ارزیابی‌های ایمنی انجام می‌دهد تا خطرات احتمالی را کاهش دهد. اوپن‌ای‌آی همچنین با نهادهای علمی و نظارتی همکاری می‌کند تا از سوءاستفاده‌ها جلوگیری کرده و تهدیدات ناشی از هوش مصنوعی را به حداقل برساند. برای استفاده از خدمات این کمپانی، می توانید از سرویس خرید اکانت ChatGPT در ایرانیکارت استفاده کنید. 

در ادامه به نتایج مهم این همکاری اشاره می‌کنیم:

۱. شناسایی رفتارهای فریبکارانه

یکی از نتایج مهم این ارزیابی، بررسی رفتارهای فریبکارانه مدل‌های هوش مصنوعی بود. طبق گزارش منتشرشده در AImagazine.com، هر دو شرکت مدل‌های خود را در ۱۳ سناریوی شبیه‌سازی‌شده توسط Apollo Research آزمایش کردند. نتایج نشان داد که میانگین نرخ فریب یا عملکرد مغرضانه مدل‌های هوش مصنوعی، کمتر از ۲۵% بود؛ البته همچنان احتمال وجود رفتارهای غیرقابل‌پیش‌بینی در شرایط حساس وجود دارد.

۲. تفاوت در رویکردهای دروغ‌گویی و پنهان‌کاری

تحلیل‌ها نشان دادند که مدل‌های مختلف، روش‌های متفاوتی در مواجهه با موقعیت‌های مرتبط با دروغ‌گویی دارند. به گزارش OpenAI، مدل o3 معمولاً برنامه خود را برای ارائه اطلاعات نادرست، شفاف بیان می‌کند؛ بنابراین، نظارت بر آن ساده‌تر است؛ اما در مقابل، مدل Claude Opus 4 مستقیماً دروغ نمی‌گوید و با عباراتی پیچیده، کاربر را فریب می‌دهد. این ارزیابی نشان می‌دهد که ارزیابی و کنترل Claude، دشوارتر از ChatGPT است.

۳. آگاهی مدل‌ها از ارزیابی شدن

یکی دیگر از یافته‌های جالب، آگاهی بعضی از مدل‌ها از فرایند ارزیابی بود. طبق گزارش OpenAI، بعضی از مدل‌ها متوجه شدند که در حال آزمایش هستند و همین موضوع روی رفتارشان تاثیر گذاشت. این آگاهی باعث می‌شود که مدل‌ها به‌جای عملکرد واقعی، نوعی «رفتارِ کنترل‌شده» ارائه دهند؛ موضوعی که تحلیل نتایج را دشوارتر می‌کند. 

همکاری OpenAI و آنتروپیک برای آزمایش ایمنی ابزارهای هوش مصنوعی

خطرات احتمالی استفاده از مدل‌های هوش مصنوعی

کارشناسان فناوری بارها هشدار داده‌اند که استفاده نادرست از مدل‌های هوش مصنوعی، پیامدهای سنگینی به همراه دارد. انتشار اطلاعات نادرست تا آسیب‌های روانی و حتی تهدیدهای امنیتی، همگی ازجمله خطرات احتمالی هستند.

در ادامه، به مهم‌ترین خطرات احتمالی استفاده از این مدل‌ها می‌پردازیم:

1. انتشار اطلاعات نادرست

یکی از بزرگ‌ترین نگرانی‌ها درباره هوش مصنوعی، توانایی آن در تولید اطلاعات نادرست است. این نوع اطلاعات، ظاهراً معتبر به نظر می‌رسند اما گمراه‌کننده هستند. به گفته گری مارکوس، استاد دانشگاه نیویورک و از منتقدان جدی AI، این پدیده باعث تضعیف اعتماد عمومی می‌شود؛ همچنین، انتشار اطلاعات نادرست می‌تواند تصمیم‌گیری‌های حیاتی را تحت تاثیر قرار دهد.

2. تهدیدهای امنیت سایبری

هوش مصنوعی می‌تواند به ابزار جدیدی برای هکرها و مجرمان سایبری تبدیل شود. گزارش اخیر مرکز امنیت سایبری اروپا نشان می‌دهد که مدل‌های زبانی پیشرفته برای اهداف امنیتی هم استفاده می‌شوند؛ ازجمله تولید بدافزار یا نوشتن ایمیل‌های فیشینگ بسیار واقعی. این مسئله، خطر نفوذ به داده‌های حساس سازمان‌ها و کاربران عادی را چند برابر می‌سازد.

3. استفاده در جنگ و تروریسم

یکی از خطرناک‌ترین سناریوها، استفاده از هوش مصنوعی برای اهداف نظامی یا تروریستی است. گزارش موسسه «RAND» در سال ۲۰۲۴ در این رابطه هشدار داده بود. طبق این گزارش، مدل‌های هوش مصنوعی این قابلیت را دارند که برای طراحی سلاح‌های شیمیایی یا بیولوژیکی استفاده شوند.

4. اثرات روانی و اجتماعی

استفاده بیش‌ازحد از چت‌بات‌های هوش مصنوعی، تأثیرات بدی روی سلامت روانی کاربران به ویژه نوجوانان می‌گذارد. مثلاً در 26 آگوست ۲۰۲۵، خبر خودکشی آدام رِین ۱۶ ساله در اروپا به تیتر اول رسانه‌های جهانی تبدیل شد. طبق اعلام رسانه‌های معتبر مثل NBC News و خانواده نوجوان، این اتفاق دردناک طبق توصیه‌های اشتباه ChatGPT رخ داده بود. پرونده خودکشی این نوجوان اروپایی نشان داد که تهدیدهای هوش مصنوعی می‌توانند ابعاد انسانی و دردناکی داشته باشند.

خطرها و تاثیرات روانی و اجتماعی هوش مصنوعی

نکات امنیتی برای استفاده از چت بات ها

چت‌بات‌های هوش مصنوعی مثل ChatGPT، ابزارهای مفیدی هستند؛ اما در صورت استفاده نادرست، خطرات زیادی برای کاربران ایجاد می‌کنند؛ البته با رعایت چند نکته ساده و کاربردی می‌توان تهدیدهای امنیتی و اطلاعاتی را به حداقل رساند. ازجمله نکات امنیتی برای استفاده از چت‌بات‌ها باید به موارد زیر اشاره کنیم:

  • محدود کردن اطلاعات شخصی: هرگز اطلاعات مهم مثل شماره کارت بانکی، آدرس منزل یا گذرواژه‌ها را در چت‌بات وارد نکنید. افراد سودجو یا هکرها از این داده‌ها سوءاستفاده می‌کنند.
  • بررسی منبع و صحت پاسخ‌ها: همیشه مطمئن شوید که پاسخ‌های ارائه‌شده توسط چت‌بات با منابع معتبر مطابقت دارند. چت‌بات‌ها گاهی اطلاعات غلط تولید می‌کنند؛ بنابراین، قبل از عمل به آن‌ها، باید از صحت‌شان مطمئن شوید.
  • به‌روزرسانی نرم‌افزار و پلتفرم‌ها: از آخرین نسخه‌های پلتفرم یا اپلیکیشن‌های هوش مصنوعی استفاده کنید. این به‌روزرسانی‌ها مثل نسخه 5 چت جی‌پی‌تی شامل اصلاحات امنیتی هستند و از سوءاستفاده‌های احتمالی جلوگیری می‌کنند.

گزارش خطاها و اشتباهات بزرگ چت بات ها در حوزه درمان

طبق یک مقاله علمی در پایگاه اطلاعاتی PubMed، چت‌بات‌های هوش مصنوعی دو نقش مهم در حوزه درمان دارند. نقش اول، ارائه مشاوره‌های درمانی از راه دور مثل حمایت از بیماران، مدیریت مراقبت‌ها و آموزش‌های بهداشتی است. نقش دوم چت‌بات‌ها به کمک به کادر درمان در امور اداری و مدیریت اطلاعات مربوط می‌شود. با وجود این مزایا، نباید از خطاها و اشتباهات چت‌بات‌ها غافل شد.

همچنین، طبق نتایج این مقاله علمی ثابت شده است که بعضی از چت‌بات‌ها دوز دارو یا ترکیب داروها را به‌درستی تشخیص نمی‌دهند. محققان تأکید کرده‌اند که چت‌بات‌ها گاهی علائم بیماری را اشتباه تفسیر می‌کنند و بیماری‌های جدی را با مشکلات ساده اشتباه می‌گیرند. بنابراین، اگرچه چت‌بات‌ها ابزاری خلاقانه در حوزه سلامت هستند، اما یک نکته بسیار مهم دارند؛ اینکه همچنان باید به‌عنوان مکمل، نه جایگزینِ پزشکان استفاده شوند.

پیشنهاد مطالعه: آموزش استفاده از ChatGPT در ایران 

سایه تهدیدات هوش مصنوعی یا آزمایش‌های تخصصی؛ کدام تأثیر بیشتری دارد؟

با وجود اینکه هوش مصنوعی ابزاری قدرتمند و سودمند است، سایه‌ای از تهدیدهای پنهان هم دارد. همکاری OpenAI و Anthropic نشان داد که حتی پیشرفته‌ترین مدل‌ها هم رفتارهای غیرمنتظره‌ای از خود بروز می‌دهند، همچنین، در شرایط خاص، تصمیم‌هایی می‌گیرند که قابل پیش‌بینی یا کنترل کامل نیست.

بااین‌حال، باید یادآوری کنیم که بسیاری از آزمایش‌ها در شرایط غیرواقعی انجام شده‌اند؛ بنابراین، نمی‌توان همه نتایج را به دنیای واقعی ربط بدهیم. حالا پرسش مهم این است که آیا باید بیشتر نگران تهدیدهای احتمالی هوش مصنوعی باشیم؟ یا باید به توانایی آزمایش‌ها و مقررات تخصصی برای کنترل آن‌ها اعتماد کنیم؟ نظر شما چیست؟

درج نظر اولین نفر باشید که نظر می‌دهید.
با درج نظر امتیاز کسب کنید

پیشنهادی سردبیر ایرانیکارت
برگزیده اخبار و مقالات
بهترین ابزارهای هوش مصنوعی ساخت عکس در 2025
اکانت های خارجی
بهترین ابزارهای هوش مصنوعی ساخت عکس در 2025
در سال 2025، با به‌کارگیری الگوریتم‌های پیشرفته‌تر و شبکه‌های پیچیده‌تر، ابزارهای هوش مصنوعی تولید عکس به سطح بی‌نظیری از دقت و هنر رسیده‌اند. بهترین ابزارهای هوش مصنوعی ساخت عکس در...
مینی اپ تلگرام (Telegram Mini App) چیست و چه کاربردهایی دارد؟
اکانت های خارجی
مینی اپ تلگرام (Telegram Mini App) چیست و چه کاربردهایی دارد؟
تلگرام که یکی از پیام‌رسان‌های محبوب با بیش از ۹۰۰ میلیون کاربر فعال ماهانه است که در سال ۲۰۲۳ با همکاری بنیاد شبکه باز (TON) و شرکت تنسنت (مالک وی‌چت)،...
حل مشکل خطای اتصال اسپاتیفای
اکانت های خارجی
حل مشکل خطای اتصال اسپاتیفای
اگر شما هم به تازگی از سرویس اسپاتیفای استفاده کرده باشید، حتما متوجه خطای اتصال آن شده‌اید. به این صورت که در زمان پخش موسیقی مورد علاقه خود یا باز...