در پی افزایش تهدیدات خارجی و نگرانی از نشت اطلاعات حیاتی، شرکت اوپنایآی (OpenAI) تغییرات اساسی در ساختار امنیتی خود اعمال کرده است. این اقدامات دقیقاً بعد از آن شدت گرفت که استارتآپ چینی دیپسیک (DeepSeek) در ژانویه ۲۰۲۵ مدلی مشابه با محصولات OpenAI معرفی کرد و این شرکت مدعی شد بخشی از این مدل از طریق تکنیکهای «تقطیر (Distillation)» از فناوریهای اختصاصی آنها کپیبرداری شده است.
اقدامات سختگیرانه در ساختار امنیتی داخلی OpenAI
به گفته منابع آگاه، OpenAI روند محافظت از فناوریهای در حال توسعه خود را با استفاده از سیاستهایی دقیق و گاهی بیسابقه تقویت کرده است. این سیاستها نهتنها برای جلوگیری از جاسوسی خارجی طراحی شدهاند، بلکه بهنظر میرسد واکنشی به نشتهای داخلی و افزایش رقابت میان شرکتهای بزرگ هوش مصنوعی نیز باشند.
مهمترین سیاستهای امنیتی جدید شامل موارد زیر هستند:
سیاست امنیتی | توضیحات |
---|---|
چادر اطلاعاتی (Information Tenting) | فقط اعضای تأییدشده اجازه صحبت درباره پروژهها در فضاهای عمومی شرکت را دارند. |
قطع اتصال اینترنت بهصورت پیشفرض (Deny-by-default) | تمام ارتباطات خارجی باید با تأیید رسمی انجام شود. |
ایزولهسازی سختافزاری | دادههای حساس روی سیستمهای آفلاین نگهداری میشوند. |
کنترل بیومتریک | ورود به برخی فضاها نیاز به اسکن اثر انگشت دارد. |
افزایش امنیت مراکز داده | مراکز داده با لایههای حفاظتی فیزیکی و دیجیتال بیشتری محافظت میشوند. |
تقویت تیم امنیت سایبری | جذب نیروهای خبره از نهادهای دفاعی و شرکتهای فناوری مطرح برای افزایش امنیت. |
نگرانی اصلی: رقبا یا کارکنان داخلی؟
در حالی که بسیاری تصور میکنند تهدید اصلی برای OpenAI از سوی رقبای خارجی مانند شرکتهای چینی یا روسی است، برخی کارشناسان معتقدند که حجم بالای نشت اطلاعات و اسناد، بهویژه در ماههای اخیر، ممکن است منشأ داخلی داشته باشد. در همین راستا، شرکت تلاش کرده تا محدودیتهایی جدی برای دسترسی کارکنان به اطلاعات حساس وضع کند.
گزارشها حاکی از آن است که در زمان توسعه مدل جدید o1، فقط تعداد معدودی از اعضای تیم اجازه گفتگو در مورد پروژه را داشتند و این گفتگوها فقط در محیطهای ایزوله انجام میشد. حتی در دفاتر رسمی شرکت، مناطق خاصی برای گفتوگو درباره این مدل تعیین شده بود.
جذب مدیران امنیتی از نهادهای نظامی و فناوری
در چارچوب برنامه تقویت امنیت داخلی، OpenAI اخیراً اقدام به جذب متخصصانی از خارج از صنعت هوش مصنوعی کرده است. از جمله:
-
دن استاکی (Dane Stuckey)، مدیر سابق امنیت اطلاعات شرکت پالانتیر (Palantir)، به عنوان مسئول جدید امنیت سایبری معرفی شده است.
-
ژنرال پاول ناکاسونه (Paul Nakasone)، رئیس سابق آژانس امنیت ملی ایالات متحده، نیز به هیئت امنای شرکت پیوسته است.
این اقدامات نشاندهنده تعهد جدی OpenAI به حفظ محرمانگی فناوریها و کاهش احتمال سوءاستفاده است.

نتیجهگیری: یک دیوار آهنین در مقابل نشت اطلاعات
با گسترش رقابت جهانی در حوزه هوش مصنوعی، مالکیت فکری و محرمانگی دادهها به یکی از ارزشمندترین داراییهای شرکتهای پیشرو مانند OpenAI تبدیل شده است. اتخاذ سیاستهای امنیتی سختگیرانه، ایزولهسازی فناوری، افزایش محدودیتهای دسترسی و جذب چهرههای امنیتی مطرح، همگی گواهی بر آن هستند که OpenAI دیگر هیچ ریسکی را در قبال افشای اطلاعات نمیپذیرد.
بهنظر میرسد سال ۲۰۲۵ برای OpenAI نه فقط سال رقابت در مدلهای زبانی، بلکه میدان جنگی برای حفاظت از داراییهای دیجیتال آن خواهد بود.
نظرات کاربران