متن ارائه «حکمرانی شناختی و هوش مصنوعی» در چهارمین همایش «فضای سایبر» در دانشگاه تهران
بسم الله الرحمن الرحیم
اساتید محترم، پژوهشگران گرامی، و حضار ارجمند، سلام عرض میکنم و بسیار خرسندم که امروز در همایش فضای سایبر دانشگاه تهران، فرصتی برای گفتگو در اختیار بنده قرار گرفته است.
موضوع بحث امروز ما، «حکمرانی شناختی و هوش مصنوعی» است. شاید در دهههای گذشته، مفهوم «قدرت» عمدتاً با توان نظامی، اقتصادی و یا نفوذ دیپلماتیک تعریف میشد. اما امروز، ما در آستانه عصری هستیم که در آن، مستقیمترین، کمهزینهترین و موثرترین شکل اعمال قدرت، نه بر سرزمینها، بلکه بر «ادراک» انسانها متمرکز است.
ما از دوران «جنگ اطلاعات» (Information Warfare) که در آن هدف، «کنترل اطلاعات» بود، عبور کردهایم. ما اکنون در عصر «حکمرانی شناختی» (Cognitive Governance) به سر میبریم که در آن هدف، «کنترل تفکر» و «شکلدهی به واقعیت» است.
و در این میدان نبرد جدید، «هوش مصنوعی» نه یک ابزار جانبی، بلکه «سلاح اصلی» و «موتور محرک» این دگرگونی است.
بخش اول: تعریف حوزه شناختی
اجازه دهید ابتدا تعاریف را روشن کنیم. «حوزه شناختی» (The Cognitive Domain) چیست؟
اگر حوزه سایبری، فضای نبرد بر سر «دادهها» و «زیرساختها» است، حوزه شناختی، فضای نبرد بر سر «ذهن انسان» است. این حوزه شامل باورها، ارزشها، نگرشها، احساسات و فرآیندهای تصمیمگیری فردی و جمعی است.
«حکمرانی شناختی» به معنای تلاش سیستماتیک و راهبردی برای مدیریت، کنترل و شکلدهی به این حوزه در سطح یک جامعه یا حتی در سطح بینالمللی است.
این مفهوم، تکاملیافتهی مفاهیمی چون «قدرت نرم» (Soft Power) یا «پروپاگاندا» است. تفاوت کلیدی در اینجاست:
- دقت (Precision): به جای پیامرسانی انبوه، با «هدفگیری خُرد» (Micro-targeting) مواجهیم.
- سرعت (Velocity): سرعت انتشار و تغییر روایتها از چرخههای تصمیمگیری انسانی پیشی گرفته است.
- مقیاس (Scale): امکان تأثیرگذاری همزمان بر میلیونها ذهن به شیوهای شخصیسازیشده فراهم است.
در این میان، این «هوش مصنوعی» است که این سه ویژگی، یعنی دقت، سرعت و مقیاس را به سطحی رسانده که پیش از این در تاریخ بشر غیرقابل تصور بود.
بخش دوم: هوش مصنوعی به مثابه کاتالیزور جنگ شناختی
اما هوش مصنوعی چگونه این حکمرانی شناختی را ممکن میسازد؟ من چهار نقش کلیدی را برجسته میکنم:
۱. هوش مصنوعی به مثابه «تحلیلگر» (AI as the Analyst): هوش مصنوعی، بهویژه در حوزه یادگیری ماشین، قادر است حجم عظیمی از دادههای عمومی (Big Data) – از شبکههای اجتماعی، الگوهای رفتاری و روندهای فرهنگی – را تحلیل کند. این ابزارها دیگر فقط «احساسات عمومی» (Public Sentiment) را رصد نمیکنند، بلکه «آسیبپذیریهای شناختی» (Cognitive Vulnerabilities) جوامع را شناسایی میکنند. آنها میفهمند که چه چیزی باعث خشم، ترس، امید یا تفرقه در یک گروه خاص میشود.
۲. هوش مصنوعی به مثابه «هدفگیر» (AI as the Targeter): اینجا به مفهوم «سرمایهداری نظارتی» (Surveillance Capitalism) که شوشانا زوبوف مطرح کرد، نزدیک میشویم. پلتفرمهای دیجیتال با استفاده از الگوریتمهای پیشرفته، پروفایلهای روانی دقیقی از ما میسازند. این همان «هدفگیری خُرد» است. پیام دیگر برای «همه» نیست، بلکه پیامی خاص برای «شخص شما» طراحی میشود تا حداکثر تأثیر شناختی را داشته باشد.
۳. هوش مصنوعی به مثابه «پدیدآور» (AI as the Creator): اینجا جایی است که «هوش مصنوعی مولد» (Generative AI) وارد میشود. ما اکنون با پدیدهی «جعل عمیق» یا «دیپفیک» (Deepfakes) و تولید انبوه متون، تصاویر و ویدئوهای متقاعدکننده روبرو هستیم. خطر اصلی این نیست که ما «دروغ» را باور کنیم. خطر بزرگتر، مفهومی است که اندیشکده «رند» (RAND Corporation) آن را «افول حقیقت» (Truth Decay) مینامد. یعنی وضعیتی که در آن، شهروندان دیگر به هیچچیز اعتماد نمیکنند و تمایز بین واقعیت و جعل، عملاً غیرممکن میشود. این فرسایش اعتماد، زیربنای هرگونه حکمرانی (چه خوب و چه بد) را از بین میبرد.
۴. هوش مصنوعی به مثابه «تقویتکننده» (AI as the Amplifier): الگوریتمهای شبکههای اجتماعی ذاتاً برای «درگیری» (Engagement) بهینهسازی شدهاند، نه برای «حقیقت» (Truth). محتوایی که احساسات شدیدتری (معمولاً خشم و قطبیسازی) ایجاد کند، بیشتر دیده میشود. هوش مصنوعی به طور خودکار «اتاقهای پژواک» (Echo Chambers) و «حبابهای فیلتر» (Filter Bubbles) میسازد. این امر، انسجام اجتماعی را تضعیف کرده و جامعه را به گروههای متخاصم و غیرقابل گفتگو تقسیم میکند.
بخش سوم: دیدگاههای بینالمللی و دکترینهای جدید
این تهدیدات صرفاً تئوریک نیستند. بازیگران بزرگ بینالمللی در حال تدوین دکترینهای خود هستند.
مهمترین دیدگاه، متعلق به «ناتو» (NATO) است. مرکز نوآوری ناتو در سالهای ۲۰۲۰ و ۲۰۲۱، صراحتاً «جنگ شناختی» (Cognitive Warfare) را بهعنوان «حوزه ششم نبرد» (6th Domain of Warfare) معرفی کرد؛ پس از زمین، دریا، هوا، فضا و سایبر.
دکترین ناتو در این مورد هراسآور است. آنها میگویند هدف جنگ شناختی، «تبدیل کردن همگان به سلاح» (Weaponizing Everyone) است. هدف این نیست که باور شما را «عوض» کنند، بلکه هدف این است که «فرآیند تصمیمگیری» شما را مختل کنند. آنها به دنبال «فلج کردن شناختی» (Cognitive Paralysis) یک ملت هستند تا آن ملت حتی قبل از شروع یک درگیری نظامی یا اقتصادی، توانایی اجماع، تصمیمگیری و اقدام را از دست بدهد.
از سوی دیگر، ما شاهد تلاشهایی برای «حکمرانی بر هوش مصنوعی» هستیم. «قانون هوش مصنوعی اتحادیه اروپا» (EU AI Act) تلاشی است برای دستهبندی ریسکها. آنها سیستمهای هوش مصنوعی که برای «دستکاری شناختی-رفتاری» (Cognitive Behavioural Manipulation) طراحی شدهاند را در دسته «ریسک غیرقابل قبول» و ممنوعه قرار دادهاند. این نشان میدهد که غرب، همزمان که در حال توسعه دکترینهای تهاجمی است، به شدت نگران آسیبپذیریهای داخلی خود نیز هست.
بخش چهارم: چالش پیش رو و نتیجهگیری
ما در یک «مسابقه تسلیحاتی شناختی» مبتنی بر هوش مصنوعی قرار داریم. اما چالشهای پیش روی ما چیست؟
چالش اول، «عدم تقارن» (Asymmetry) است. تولید اطلاعات نادرست با هوش مصنوعی مولد، تقریباً رایگان، فوری و در مقیاس نامحدود است. اما راستیآزمایی (Fact-Checking) و اعتمادسازی، بسیار گران، زمانبر و محدود است. «امتیاز مهاجم» (Attacker’s Advantage) در این حوزه بسیار بالاست.
چالش دوم، «حکمرانی بر ابزار» است. چگونه میتوانیم از مزایای شگفتانگیز هوش مصنوعی در علم، پزشکی و اقتصاد بهرهمند شویم، بدون آنکه جعبه پاندورای دستکاری شناختی را باز کنیم؟ این یک دوراهی فناورانه-اخلاقی پیچیده است.
و چالش نهایی، «تابآوری شناختی» (Cognitive Resilience) است. در نهایت، دفاع صرفاً فناورانه (یعنی استفاده از هوش مصنوعی برای مقابله با هوش مصنوعی) کافی نخواهد بود. ما باید بر «انسان» سرمایهگذاری کنیم. ما باید بتوانیم «انسان عمیق» را پرورش دهیم.
دفاع نهایی در برابر حکمرانی شناختی، جامعهای است که دارای «سواد رسانهای» (Media Literacy)، «تفکر انتقادی» (Critical Thinking) و مهمتر از همه، «انسجام اجتماعی» (Social Cohesion) و «اعتماد عمومی» (Public Trust) به نهادهای خود باشد.
هوش مصنوعی، آینهای است که هم نبوغ و هم تاریکترین غرایز ما برای کنترل یکدیگر را بازتاب میدهد. در این همایش فضای سایبر، وظیفه ما این است که اطمینان حاصل کنیم در حالی که زیرساختهای فیزیکی و دیجیتال خود را ایمن میکنیم، از مهمترین دارایی خود، یعنی «استقلال شناختی» (Cognitive Autonomy) جامعهمان غافل نشویم.
از توجه شما سپاسگزارم.