دانش و فناوری > فناوری اطلاعات و ارتباطات

پنتاگون و بازتعریف نقش سیلیکون‌ولی در توسعه هوش مصنوعی نظامی



به گزارش خبرنگار مهر؛ در چنین شرایطی، جهان با ورود به فاز دوم توسعه هوش مصنوعی نظامی، شاهد تحولی عمیق در الگوهای بهره‌برداری از این فناوری در محیط‌های عملیاتی است؛ تحولی که شامل به‌کارگیری مدل‌های زبانی مولد نظیر «ChatGPT» برای تحلیل اطلاعات، ارزیابی تهدیدات و حتی مشارکت در تصمیم‌سازی‌های نظامی می‌شود.

به عقیده کارشناسان، این گذار، صرفاً جنبه تکنولوژیک ندارد بلکه بازتابی از پیوندهای نهادی و تاریخی میان صنایع فناوری پیشرفته در سیلیکون‌ولی و ساختار نظامی-امنیتی ایالات متحده به شمار می‌رود. ریشه این پیوند به دوران جنگ سرد بازمی‌گردد و اکنون خود را در قالب همکاری‌های گسترده، قراردادهای تحقیقاتی و به‌کارگیری مدل‌های پیشرفته در زنجیره تصمیم‌گیری نظامی، نمایان کرده است. مهر در این نوشتار کوتاه، به بررسی ابعاد مختلف استفاده از هوش مصنوعی در ساختار نظامی آمریکا، فرصت‌ها و تهدیدهای امنیتی ناشی از آن و همچنین بسترهای نهادی و تاریخی این رابطه فناورانه-نظامی می‌پردازد.

گذار از فاز نخست به فاز دوم هوش مصنوعی نظامی

فاز نخست بهره‌گیری از هوش مصنوعی در ساختار نظامی ایالات متحده با پروژه‌هایی چون «میوِن» (Project Maven) در سال ۲۰۱۷ کلید خورد. این پروژه با هدف استفاده از بینایی ماشین برای تحلیل خودکار تصاویر پهپادی طراحی شد؛ تحولی که به صورت خاص برای شناسایی و طبقه‌بندی اهداف در میادین نبرد و کاهش زمان واکنش عملیاتی به‌کار گرفته شد. در این فاز، تمرکز بر سامانه‌های تشخیص الگو، تشخیص چهره و دسته‌بندی اشیا در تصاویر هوایی بود.

این در حالی است که طی سال‌های اخیر و با شتاب‌گیری پیشرفت در حوزه مدل‌های زبانی مولد، فاز دوم این تحول فناورانه آغاز شد؛ فازی که در آن هوش مصنوعی نه‌فقط برای پردازش داده‌های تصویری، بلکه برای تحلیل متون، برآورد تهدیدات، تولید سناریوهای عملیاتی و حتی پیشنهاد گزینه‌های تصمیم‌گیری نظامی استفاده می‌شود. برای مثال، در یکی از مانور نظامی اخیر آمریکا در منطقه پاسیفیک، دو نیروی تفنگدار دریایی ایالات متحده برای نخستین‌بار از چت‌باتی شبیه به «ChatGPT» جهت تحلیل اطلاعات جاسوسی و تشخیص علائم هشدار زودهنگام استفاده کردند. این ابزار توانست با پردازش صدها منبع اطلاعاتی، روندهای مشکوک را استخراج کرده و توصیه‌هایی برای اقدامات بعدی ارائه دهد.

این تغییر، صرفاً به معنای بهبود بهره‌وری اطلاعاتی نیست، بلکه نقطه عطفی در تحول الگوریتم‌های تصمیم‌سازی نظامی محسوب می‌شود؛ الگویی که در آن مدل‌های زبانی به‌عنوان تحلیل‌گر، مترجم داده و حتی مشاور عملیات در کنار فرماندهان عمل می‌کنند. در این چارچوب، مرز میان ابزارهای پشتیبان اطلاعاتی و سامانه‌های فعال در فرآیند تصمیم‌گیری نظامی، به‌شکل فزاینده‌ای در حال از بین رفتن است.

با عنایت به تحولات فناورانه اخیر، در مسیر توسعه این فناوری‌ها، سه پرسش اساسی مطرح می‌شود:

۱. حدود مداخله انسان در فرآیند تصمیم‌گیری چیست؟

اصطلاح رایج «انسان در حلقه» (human in the loop) به‌عنوان راهکاری برای جلوگیری از اشتباهات خطرناک سیستم‌های هوش مصنوعی مطرح می‌شود، اما به‌گفته هایدی خَلاف، کارشناس ارشد مؤسسه مطالعاتی «AI Now»، وقتی مدل‌ها از هزاران داده استفاده می‌کنند، راستی‌آزمایی انسانی عملاً غیرممکن می‌شود.

۲. آیا هوش مصنوعی باعث شفاف‌سازی یا ابهام در طبقه‌بندی اطلاعات می‌شود؟ مدل‌های زبانی مولد می‌توانند با ترکیب داده‌های غیرمحرمانه، به اطلاعاتی دست یابند که ماهیتاً محرمانه هستند؛ پدیده‌ای که به آن «طبقه‌بندی بر پایه تجمیع» (classification by compilation) می‌گویند. شرکت‌هایی نظیر «Palantir» در تلاش هستند که با کمک هوش مصنوعی، تشخیص سطح محرمانگی اسناد را خودکار کنند، اما هنوز استانداردهای مشخصی برای این کار تدوین نشده است.

۳. هوش مصنوعی تا کجای زنجیره تصمیم‌گیری نظامی نفوذ می‌کند؟

مدل‌های کنونی نه‌تنها داده‌پردازی می‌کنند، بلکه به‌سمت پیشنهاد عملیاتی و تعیین اهداف نظامی سوق یافته‌اند. طبق گزارش مرکز «CSET» دانشگاه جورج‌تاون، فرماندهان نظامی به شکل فزاینده‌ای به این مدل‌ها برای تصمیم‌سازی در سطوح عملیاتی اعتماد دارند. این در حالی است که حتی در یادداشت امنیت ملی دولت بایدن نیز هشدارهایی در مورد نیاز به کنترل بر تصمیم‌گیری‌های حیاتی مبتنی بر هوش مصنوعی ذکر شده بود؛ هرچند مسیر فعلی دولت ترامپ متمایل به کاهش نظارت و افزایش سرعت رقابت است.

سیلیکون‌ولی؛ اکوسیستمی ساخته دست پنتاگون

علی‌رغم تصور عمومی، پیوند میان سیلیکون‌ولی و پنتاگون یک پدیده نوظهور یا ناشی از ضرورت‌های ژئوپلیتیک قرن بیست‌ویکم نیست، بلکه ریشه‌های عمیقی در تاریخ جنگ سرد دارد. در آن دوران، ایالات متحده به‌دنبال برتری فناورانه بر رقیب قدرتمند خود، شوروی، سرمایه‌گذاری گسترده‌ای بر روی پژوهش‌های علمی، پروژه‌های مهندسی و توسعه صنایع الکترونیکی و محاسباتی انجام داد. این سرمایه‌گذاری‌ها عمدتاً از سوی نهادهایی نظیر وزارت دفاع (DOD) و آژانس پروژه‌های پژوهشی پیشرفته دفاعی (DARPA) صورت گرفت که هدف آن‌ها نه‌فقط پیشرفت علمی، بلکه تسلط استراتژیک فناورانه بود.

شرکت‌هایی نظیر «Fairchild Semiconductor» و «Varian Associates»، که از نخستین بنیان‌گذاران اکوسیستم فناورانه سیلیکون‌ولی محسوب می‌شوند، با اتکا به قراردادهای نظامی ارتش آمریکا توانستند رشد کنند. همچنین پروژه «ARPANET» که بعدتر به ظهور اینترنت منجر شد، یک پروژه تماماً نظامی بود که برای افزایش امنیت و قابلیت اطمینان ارتباطات در شرایط بحران طراحی شد. علاوه بر این، دستیار صوتی «Siri» نیز که امروز در تلفن‌های هوشمند به‌کار می‌رود، ریشه در پروژه‌های هوش مصنوعی «DARPA» دارد. دانشگاه استنفورد و دیگر نهادهای علمی منطقه نیز با تشویق دولت فدرال، پژوهشگران خود را به مشارکت در پروژه‌های نظامی و امنیتی ترغیب کردند و این سیاست باعث شد تا مرز میان پژوهش دانشگاهی و نیازهای دفاعی به‌مرور کمرنگ شود.

در این فرآیند، الگویی شکل گرفت که مورخان آن را «نقشه راه سیلیکون‌ولی» می‌نامند؛ ائتلافی میان دولت، دانشگاه و صنعت که محور آن منافع امنیتی و نظامی ایالات متحده بود. این الگو نه‌تنها باعث شکل‌گیری شرکت‌هایی نظیر اینتل و گوگل شد، بلکه فرهنگ فناورانه سیلیکون‌ولی را نیز بر مبنای مأموریت‌های ملی و امنیتی بازتعریف کرد. به‌عبارت دیگر، توسعه صنعت فناوری اطلاعات در آمریکا همپا با الزامات نظامی و دفاعی بوده و همچنان این پیوند، هرچند در قالب‌ها و زبان‌هایی متفاوت، پابرجاست.

تعامل پنتاگون و سیلیکون ولی؛ رابطه‌ای پرتنش اما پابرجا

در سال‌های اخیر، اعتراضات گسترده‌ای از سوی کارکنان شرکت‌های فناوری علیه همکاری با نهادهای نظامی ایالات متحده شکل گرفته است. برای نمونه، در سال ۲۰۱۸، کارکنان گوگل در واکنش به مشارکت این شرکت در پروژه میوِن که هدف آن بهره‌برداری از بینایی ماشین برای تحلیل تصاویر پهپادی در عملیات نظامی بود، با ارسال نامه‌های سرگشاده و برگزاری تجمعات اعتراضی، خواستار قطع همکاری با پنتاگون شدند. در نتیجه این فشارها، گوگل اعلام کرد قرارداد خود را تمدید نخواهد کرد. به‌همین ترتیب، پروژه «Nimbus» که هدف آن ارائه زیرساخت‌های ابری و ظرفیت‌های یادگیری ماشین به رژیم صهیونیستی بود نیز با اعتراض کارکنان آمازون و گوگل مواجه شد.

با این حال، این اعتراضات هرگز نتوانستند روند کلان همکاری میان صنعت فناوری و نهادهای دفاعی آمریکا را متوقف کنند. پروژه‌های مشابه از طریق پیمانکاران فرعی و سازوکارهای واسطه‌گری ادامه یافتند و بسیاری از شرکت‌ها ترجیح دادند این همکاری‌ها را از دید عمومی دور نگه دارند.

در همین حال، واحد نوآوری دفاعی آمریکا یا «Defense Innovation Unit» که در سال ۲۰۱۵ با هدف ایجاد تعامل مستقیم میان پنتاگون و استارتاپ‌های فناوری در سیلیکون‌ولی تأسیس شد، به تدریج جایگاه خود را تثبیت کرده و اکنون با بودجه‌ای رو به افزایش، در حال گسترش به ایالت‌ها و مراکز فناوری دیگر در سراسر این کشور است. واحد مذکور به‌نوعی نقطه اتصال رسمی و ساختاریافته‌ای میان نهاد نظامی و اکوسیستم نوآوری تبدیل شده که حضور آن بیانگر عزم وزارت دفاع برای نهادینه‌سازی همکاری با صنعت فناوری است.

همزمان، نخبگان فناوری با گفتمان‌هایی چون «میهن‌دوستی فناورانه» تلاش می‌کنند روایت اخلاقی تازه‌ای از این همکاری‌ها ارائه دهند. افرادی چون پالمر لاکی، بنیان‌گذار «Anduril» و الکس کارپ، مدیرعامل «Palantir»، آشکارا از تعهد صنعت فناوری به غرب و لزوم پشتیبانی از سیاست‌های امنیت ملی آمریکا سخن می‌گویند. کارپ در مجمع جهانی اقتصاد داووس ۲۰۲۳ تصریح کرد: «اگر با ما نیستید، اینجا جای شما نیست.» این گفتمان مبین آن است که همکاری فناورانه-نظامی دیگر صرفاً یک تصمیم اقتصادی نیست، بلکه به‌تدریج به بخشی از هویت استراتژیک شرکت‌های فناوری آمریکایی تبدیل می‌شود.

اجرای پروژه‌های همکاری متعدد میان وزارت دفاع آمریکا و شرکت‌های فناوری، نظیر «Replicator»، نشان می‌دهد که هدف نه‌تنها استفاده از نوآوری‌های تجاری در جنگ‌افزارهای ارزان‌قیمت، بلکه گسترش دامنه مصرف نظامی فناوری‌های سیلیکون‌ولی است. به‌نقل از پژوهشگران مؤسسه کوئینسی، این فرایند نیازمند یک بازنگری اساسی در خود صنعت فناوری است؛ چرا که مرز میان ابزارهای مصرفی و تسلیحات نظامی بیش از پیش در حال از بین رفتن است.

جمع‌بندی

در نهایت به نظر می‌رسد که گسترش استفاده از هوش مصنوعی مولد در ارتش آمریکا صرفاً یک نوآوری فناورانه در سطح ابزار یا نرم‌افزار نیست، بلکه نشانه‌ای از یک تحول نهادی عمیق در ساختارهای تصمیم‌گیری، نظارت و مأموریت‌های امنیتی ایالات متحده است. این فناوری نه‌تنها به ارتقا کارایی عملیاتی در میادین جنگی کمک می‌کند، بلکه در حال تغییر دادن منطق سنتی تصمیم‌سازی نظامی، طبقه‌بندی اطلاعات و حتی تعریف مفاهیم کلیدی همچون تهدید، هدف و اقدام متقابل است. کارشناسان نظامی آمریکایی معتقدند که در چنین فضایی، دیگر نمی‌توان به مدل‌های مرسوم «نظارت انسانی» یا کنترل متمرکز اتکا کرد؛ زیرا سرعت و مقیاس عملکرد مدل‌های زبانی مولد از توان تحلیل و مداخله انسانی پیشی گرفته است.

در عین حال، رابطه تاریخی و ساختاری سیلیکون‌ولی با پنتاگون اکنون وارد مرحله‌ای نوین از هم‌زیستی فناورانه-نظامی شده است. این رابطه، که زمانی بر پایه قراردادهای تحقیقاتی دوران جنگ سرد شکل گرفت، امروز در قالب ادغام کامل فناوری‌های نوظهور در سامانه‌های تسلیحاتی، الگوریتم‌های تصمیم‌سازی و پروژه‌های راهبردی ادامه دارد. چنین روندی به‌معنای بازتعریف جایگاه صنعت فناوری در سیاست خارجی و امنیتی آمریکاست.

با این حال، بسیاری از پرسش‌های حیاتی در این زمینه همچنان بی‌پاسخ مانده‌اند. آیا می‌توان مسئولیت حقوقی تصمیمات اتخاذشده بر پایه خروجی‌های هوش مصنوعی را تعریف کرد؟ آیا مرز میان طبقه‌بندی اطلاعات و شفافیت عمومی در عصر تجمیع داده و تحلیل ماشینی قابل دفاع است؟ و مهم‌تر از همه، آیا رقابت فناورانه میان قدرت‌های جهانی، توجیه‌گر تعلیق اصول اخلاقی در بهره‌برداری نظامی از هوش مصنوعی خواهد بود؟



منبع:مهر

نوشته های مشابه

دکمه بازگشت به بالا