حکمرانی شناختی و هوش مصنوعی

متن ارائه «حکمرانی شناختی و هوش مصنوعی» در چهارمین همایش «فضای سایبر» در دانشگاه تهران

بسم الله الرحمن الرحیم

اساتید محترم، پژوهشگران گرامی، و حضار ارجمند، سلام عرض می‌کنم و بسیار خرسندم که امروز در همایش فضای سایبر دانشگاه تهران، فرصتی برای گفتگو در اختیار بنده قرار گرفته است.

موضوع بحث امروز ما، «حکمرانی شناختی و هوش مصنوعی» است. شاید در دهه‌های گذشته، مفهوم «قدرت» عمدتاً با توان نظامی، اقتصادی و یا نفوذ دیپلماتیک تعریف می‌شد. اما امروز، ما در آستانه عصری هستیم که در آن، مستقیم‌ترین، کم‌هزینه‌ترین و موثرترین شکل اعمال قدرت، نه بر سرزمین‌ها، بلکه بر «ادراک» انسان‌ها متمرکز است.

ما از دوران «جنگ اطلاعات» (Information Warfare) که در آن هدف، «کنترل اطلاعات» بود، عبور کرده‌ایم. ما اکنون در عصر «حکمرانی شناختی» (Cognitive Governance) به سر می‌بریم که در آن هدف، «کنترل تفکر» و «شکل‌دهی به واقعیت» است.

و در این میدان نبرد جدید، «هوش مصنوعی» نه یک ابزار جانبی، بلکه «سلاح اصلی» و «موتور محرک» این دگرگونی است.

بخش اول: تعریف حوزه شناختی

اجازه دهید ابتدا تعاریف را روشن کنیم. «حوزه شناختی» (The Cognitive Domain) چیست؟

اگر حوزه سایبری، فضای نبرد بر سر «داده‌ها» و «زیرساخت‌ها» است، حوزه شناختی، فضای نبرد بر سر «ذهن انسان» است. این حوزه شامل باورها، ارزش‌ها، نگرش‌ها، احساسات و فرآیندهای تصمیم‌گیری فردی و جمعی است.

«حکمرانی شناختی» به معنای تلاش سیستماتیک و راهبردی برای مدیریت، کنترل و شکل‌دهی به این حوزه در سطح یک جامعه یا حتی در سطح بین‌المللی است.

این مفهوم، تکامل‌یافته‌ی مفاهیمی چون «قدرت نرم» (Soft Power) یا «پروپاگاندا» است. تفاوت کلیدی در اینجاست:

  1. دقت (Precision): به جای پیام‌رسانی انبوه، با «هدف‌گیری خُرد» (Micro-targeting) مواجهیم.
  2. سرعت (Velocity): سرعت انتشار و تغییر روایت‌ها از چرخه‌های تصمیم‌گیری انسانی پیشی گرفته است.
  3. مقیاس (Scale): امکان تأثیرگذاری همزمان بر میلیون‌ها ذهن به شیوه‌ای شخصی‌سازی‌شده فراهم است.

در این میان، این «هوش مصنوعی» است که این سه ویژگی، یعنی دقت، سرعت و مقیاس را به سطحی رسانده که پیش از این در تاریخ بشر غیرقابل تصور بود.

بخش دوم: هوش مصنوعی به مثابه کاتالیزور جنگ شناختی

اما هوش مصنوعی چگونه این حکمرانی شناختی را ممکن می‌سازد؟ من چهار نقش کلیدی را برجسته می‌کنم:

۱. هوش مصنوعی به مثابه «تحلیل‌گر» (AI as the Analyst): هوش مصنوعی، به‌ویژه در حوزه یادگیری ماشین، قادر است حجم عظیمی از داده‌های عمومی (Big Data) – از شبکه‌های اجتماعی، الگوهای رفتاری و روندهای فرهنگی – را تحلیل کند. این ابزارها دیگر فقط «احساسات عمومی» (Public Sentiment) را رصد نمی‌کنند، بلکه «آسیب‌پذیری‌های شناختی» (Cognitive Vulnerabilities) جوامع را شناسایی می‌کنند. آن‌ها می‌فهمند که چه چیزی باعث خشم، ترس، امید یا تفرقه در یک گروه خاص می‌شود.

۲. هوش مصنوعی به مثابه «هدف‌گیر» (AI as the Targeter): اینجا به مفهوم «سرمایه‌داری نظارتی» (Surveillance Capitalism) که شوشانا زوبوف مطرح کرد، نزدیک می‌شویم. پلتفرم‌های دیجیتال با استفاده از الگوریتم‌های پیشرفته، پروفایل‌های روانی دقیقی از ما می‌سازند. این همان «هدف‌گیری خُرد» است. پیام دیگر برای «همه» نیست، بلکه پیامی خاص برای «شخص شما» طراحی می‌شود تا حداکثر تأثیر شناختی را داشته باشد.

۳. هوش مصنوعی به مثابه «پدیدآور» (AI as the Creator): اینجا جایی است که «هوش مصنوعی مولد» (Generative AI) وارد می‌شود. ما اکنون با پدیده‌ی «جعل عمیق» یا «دیپ‌فیک» (Deepfakes) و تولید انبوه متون، تصاویر و ویدئوهای متقاعدکننده روبرو هستیم. خطر اصلی این نیست که ما «دروغ» را باور کنیم. خطر بزرگتر، مفهومی است که اندیشکده «رند» (RAND Corporation) آن را «افول حقیقت» (Truth Decay) می‌نامد. یعنی وضعیتی که در آن، شهروندان دیگر به هیچ‌چیز اعتماد نمی‌کنند و تمایز بین واقعیت و جعل، عملاً غیرممکن می‌شود. این فرسایش اعتماد، زیربنای هرگونه حکمرانی (چه خوب و چه بد) را از بین می‌برد.

۴. هوش مصنوعی به مثابه «تقویت‌کننده» (AI as the Amplifier): الگوریتم‌های شبکه‌های اجتماعی ذاتاً برای «درگیری» (Engagement) بهینه‌سازی شده‌اند، نه برای «حقیقت» (Truth). محتوایی که احساسات شدیدتری (معمولاً خشم و قطبی‌سازی) ایجاد کند، بیشتر دیده می‌شود. هوش مصنوعی به طور خودکار «اتاق‌های پژواک» (Echo Chambers) و «حباب‌های فیلتر» (Filter Bubbles) می‌سازد. این امر، انسجام اجتماعی را تضعیف کرده و جامعه را به گروه‌های متخاصم و غیرقابل گفتگو تقسیم می‌کند.

بخش سوم: دیدگاه‌های بین‌المللی و دکترین‌های جدید

این تهدیدات صرفاً تئوریک نیستند. بازیگران بزرگ بین‌المللی در حال تدوین دکترین‌های خود هستند.

مهم‌ترین دیدگاه، متعلق به «ناتو» (NATO) است. مرکز نوآوری ناتو در سال‌های ۲۰۲۰ و ۲۰۲۱، صراحتاً «جنگ شناختی» (Cognitive Warfare) را به‌عنوان «حوزه ششم نبرد» (6th Domain of Warfare) معرفی کرد؛ پس از زمین، دریا، هوا، فضا و سایبر.

دکترین ناتو در این مورد هراس‌آور است. آن‌ها می‌گویند هدف جنگ شناختی، «تبدیل کردن همگان به سلاح» (Weaponizing Everyone) است. هدف این نیست که باور شما را «عوض» کنند، بلکه هدف این است که «فرآیند تصمیم‌گیری» شما را مختل کنند. آن‌ها به دنبال «فلج کردن شناختی» (Cognitive Paralysis) یک ملت هستند تا آن ملت حتی قبل از شروع یک درگیری نظامی یا اقتصادی، توانایی اجماع، تصمیم‌گیری و اقدام را از دست بدهد.

از سوی دیگر، ما شاهد تلاش‌هایی برای «حکمرانی بر هوش مصنوعی» هستیم. «قانون هوش مصنوعی اتحادیه اروپا» (EU AI Act) تلاشی است برای دسته‌بندی ریسک‌ها. آن‌ها سیستم‌های هوش مصنوعی که برای «دستکاری شناختی-رفتاری» (Cognitive Behavioural Manipulation) طراحی شده‌اند را در دسته «ریسک غیرقابل قبول» و ممنوعه قرار داده‌اند. این نشان می‌دهد که غرب، همزمان که در حال توسعه دکترین‌های تهاجمی است، به شدت نگران آسیب‌پذیری‌های داخلی خود نیز هست.

بخش چهارم: چالش پیش رو و نتیجه‌گیری

ما در یک «مسابقه تسلیحاتی شناختی» مبتنی بر هوش مصنوعی قرار داریم. اما چالش‌های پیش روی ما چیست؟

چالش اول، «عدم تقارن» (Asymmetry) است. تولید اطلاعات نادرست با هوش مصنوعی مولد، تقریباً رایگان، فوری و در مقیاس نامحدود است. اما راستی‌آزمایی (Fact-Checking) و اعتمادسازی، بسیار گران، زمان‌بر و محدود است. «امتیاز مهاجم» (Attacker’s Advantage) در این حوزه بسیار بالاست.

چالش دوم، «حکمرانی بر ابزار» است. چگونه می‌توانیم از مزایای شگفت‌انگیز هوش مصنوعی در علم، پزشکی و اقتصاد بهره‌مند شویم، بدون آنکه جعبه پاندورای دستکاری شناختی را باز کنیم؟ این یک دوراهی فناورانه-اخلاقی پیچیده است.

و چالش نهایی، «تاب‌آوری شناختی» (Cognitive Resilience) است. در نهایت، دفاع صرفاً فناورانه (یعنی استفاده از هوش مصنوعی برای مقابله با هوش مصنوعی) کافی نخواهد بود. ما باید بر «انسان» سرمایه‌گذاری کنیم. ما باید بتوانیم «انسان عمیق» را پرورش دهیم.

دفاع نهایی در برابر حکمرانی شناختی، جامعه‌ای است که دارای «سواد رسانه‌ای» (Media Literacy)، «تفکر انتقادی» (Critical Thinking) و مهم‌تر از همه، «انسجام اجتماعی» (Social Cohesion) و «اعتماد عمومی» (Public Trust) به نهادهای خود باشد.

هوش مصنوعی، آینه‌ای است که هم نبوغ و هم تاریک‌ترین غرایز ما برای کنترل یکدیگر را بازتاب می‌دهد. در این همایش فضای سایبر، وظیفه ما این است که اطمینان حاصل کنیم در حالی که زیرساخت‌های فیزیکی و دیجیتال خود را ایمن می‌کنیم، از مهم‌ترین دارایی خود، یعنی «استقلال شناختی» (Cognitive Autonomy) جامعه‌مان غافل نشویم.

از توجه شما سپاسگزارم.

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیمایش به بالا