Modern.az

پنج پارادوکس هوش مصنوعی: از چه نباید بترسیم؟

پنج پارادوکس هوش مصنوعی: از چه نباید بترسیم؟

مورد توجه

19 ژانویه 2026, 10:04

اگر سال ۲۰۲۵ سال هیاهوی بزرگ پیرامون هوش مصنوعی (AI) بود، سال ۲۰۲۶ می‌تواند نقطه عطفی در توسعه آن باشد. بحث فقط از احتمال «حباب هوش مصنوعی» که اغلب مورد بحث قرار می‌گیرد، هزینه‌های بی‌سابقه برای زیرساخت هوش مصنوعی و افزایش بدهی‌های کشورها و شرکت‌هایی که نمی‌خواهند در این رقابت عقب بمانند، نیست. با وجود تمام هیاهو، استفاده از هوش مصنوعی و پیشرفت در رقابت برای رهبری در این زمینه برای سال ۲۰۲۶ نیز تقریباً برای همه یک اولویت پذیرفته‌شده باقی خواهد ماند.

اما با گسترش هوش مصنوعی، تعدادی تناقض و پارادوکس پدیدار می‌شود – که گاهی بیشتر به انسان‌هایی که آن را به کار می‌گیرند و استفاده می‌کنند مربوط است تا خود فناوری. به نظر من، در بسیاری از موارد توضیحات نادرست یا غیرواقعی وجود دارد. در این مقاله به ۵ مورد از این پارادوکس‌ها خواهیم پرداخت.

پارادوکس ۱: آیا هوش مصنوعی مشاغل را از انسان‌ها خواهد گرفت یا مشاغل جدیدی ایجاد خواهد کرد؟

این درست است که هوش مصنوعی هم وظایف کاری روتین و هم غیرروتین را خودکار می‌کند. اما تأثیر واقعی آن بر اشتغال هنوز کاملاً روشن نیست.

از یک سو، محاسبات نشان می‌دهد که اتوماسیون، بسته به سطح توسعه اقتصادی، می‌تواند منجر به کاهش ۰.۴٪ تا ۵.۵٪ مشاغل شود. علاوه بر این، فناوری‌های هوش مصنوعی موجود در مقیاس کل اقتصاد بیشتر تمایل به جایگزینی نیروی کار انسانی دارند تا ایجاد فرصت‌های جدید. این امر با اخراج‌های گسترده‌ای که شرکت‌های فناوری اطلاعات (IT) در خط مقدم توسعه فناوری انجام داده‌اند، تقویت می‌شود.

از سوی دیگر، تجربه نشان می‌دهد که هوش مصنوعی بیشتر وظایف را از بین می‌برد تا مشاغل را و همزمان وظایف جدیدی ایجاد می‌کند. بر اساس نظرسنجی مجمع جهانی اقتصاد (WEF) در سال ۲۰۲۴ از بیش از ۱۰۰۰ کارفرمای برجسته جهانی، انتظار می‌رود در دوره ۲۰۲۵ تا ۲۰۳۰، ۱۷۰ میلیون شغل جدید ایجاد شود و ۹۲ میلیون شغل کاهش یابد. یعنی در نتیجه، افزایش خالص می‌تواند ۷۸ میلیون شغل باشد. دو سوم شرکت‌کنندگان در نظرسنجی قصد دارند متخصصان دارای مهارت‌های هوش مصنوعی را استخدام کنند، و ۴۰٪ نیز کاهش نیروی کار در زمینه‌های قابل اتوماسیون را پیش‌بینی می‌کنند.

بر اساس پیش‌بینی WEF، تقریباً ۴۰٪ از مهارت‌های موجود در پنج سال آینده تغییر خواهد کرد. تحقیقات دیگر نیز نشان می‌دهد که در برخی مشاغل، وظایف به تدریج خودکار می‌شوند، در حالی که در مشاغل دیگر، وظایف جدید و پیچیده‌تری که نیازمند ارتباط و خلاقیت هستند، پدید می‌آیند. در این زمینه، تقاضا برای نیروی کار در زمینه‌هایی مانند بهداشت، آموزش، حمل‌ونقل، ساخت‌وساز و تأمین اجتماعی افزایش می‌یابد. نکته جالب این است که با دیجیتالی شدن اقتصاد، نیاز به مهارت‌های انسانی کاهش نمی‌یابد، بلکه ممکن است افزایش یابد.

در نهایت، این امر به کاهش شدید اشتغال کلی منجر نخواهد شد، بلکه بیشتر به بازتوزیع نیروی کار خواهد انجامید. خطر اصلی بیکاری گسترده نیست (که به احتمال زیاد رخ نخواهد داد)، بلکه نیاز به بازآموزی، تغییر شغل و سازگاری اجتماعی است. یعنی اشتغال آینده بیش از آنکه به فناوری وابسته باشد، به نحوه آمادگی جامعه – دولت، کسب‌وکارها، سیستم آموزشی – برای این تغییرات بستگی دارد.

پارادوکس ۲: آیا هوش مصنوعی بهره‌وری را افزایش می‌دهد یا برعکس؟

استفاده سریع از هوش مصنوعی، گویا باید بهره‌وری را نیز با همان سرعت افزایش دهد. اما تأثیر هوش مصنوعی بر افزایش بهره‌وری در آمارها به وضوح دیده نمی‌شود؛ حتی بر اساس داده‌های MIT Sloan، در مرحله اولیه پیاده‌سازی هوش مصنوعی در شرکت‌ها، ممکن است کاهش موقتی در بهره‌وری نیز رخ دهد.

این به عنوان «پارادوکس بهره‌وری» شناخته می‌شود. تأثیر فناوری‌های جدید بر بهره‌وری گاهی نموداری شبیه حرف J ایجاد می‌کند: ابتدا کاهش، سپس افزایش بلندمدت. زیرا هوش مصنوعی فقط وصل کردن به برق و راه‌اندازی نیست: برای پیاده‌سازی آن تغییرات سیستمی لازم است و این فرآیند می‌تواند جریان کار روزانه را برای مدتی کند کند.

به عنوان مثال، انتقال از سیستم‌های مدیریتی قدیمی به جدید می‌تواند مکانیسم‌های ایجاد و به اشتراک‌گذاری دانش کارکنان را مختل کند، و در نتیجه سرمایه سازمانی (فرآیندهای کسب‌وکار، مدیریت، برنامه‌ریزی) تضعیف شود. علاوه بر این، مشکلاتی مانند بازسازی فرآیندهای تولید، فقدان داده‌های کافی برای آموزش هوش مصنوعی، و کمبود تخصص هوش مصنوعی در داخل سازمان نیز وجود دارد. همه اینها می‌تواند منجر به ناکارآمدی موقت، وقفه‌ها و کاهش کلی بهره‌وری شود. به ویژه در شرکت‌های قدیمی و بزرگ، این تأثیر قوی‌تر خواهد بود.

بر اساس داده‌های مک‌کینزی، تا سال ۲۰۲۵، ۹ شرکت از هر ۱۰ شرکت شرکت‌کننده در نظرسنجی در سه سال گذشته شروع به استفاده از ابزارهای هوش مصنوعی کرده‌اند. اما بخش بزرگی از آنها هوش مصنوعی را هنوز آنقدر «عمیقاً» در فرآیندهای کاری خود ادغام نکرده‌اند که نتیجه بلافاصله در آمارها دیده شود.

با این حال، در افق چند سال آینده، چشم‌انداز تغییر می‌کند. تحقیقاتی که شرکت‌های پیشرو در پیاده‌سازی را در دو دوره (۲۰۱۲-۲۰۱۷ و ۲۰۱۷-۲۰۲۱) رصد کرده است، نشان می‌دهد که کسانی که هوش مصنوعی را تا سال ۲۰۱۷ پیاده‌سازی کرده‌اند، اگرچه ابتدا کاهش بهره‌وری را تجربه کرده‌اند، اما پس از آن شروع به پیشی گرفتن از شرکت‌های مشابهی که هوش مصنوعی را پیاده‌سازی نکرده‌اند، هم در بهره‌وری نیروی کار و هم در بهره‌وری کل عوامل، و همچنین در توسعه محصول جدید و گسترش سهم بازار می‌کنند.

پارادوکس ۳: آیا هوش مصنوعی ارزش محتوای تولید شده توسط انسان را افزایش خواهد داد؟

هوش مصنوعی مولد اکنون متونی تولید می‌کند که تشخیص آنها از نوشته‌های انسانی بسیار دشوار است؛ ویدئو، صدا و عکس‌ها نیز به طرز باورنکردنی واقعی به نظر می‌رسند. بر اساس برخی برآوردها، میزان محتوای هوش مصنوعی در اینترنت از محتوای تولید شده توسط انسان فراتر رفته است. یعنی اینترنت به تدریج بیشتر شبیه محصول هوش مصنوعی می‌شود. تحقیقی که ۹۰۰ هزار صفحه وب جدید ایجاد شده در آوریل ۲۰۲۵ را تحلیل کرده است، نشان داده که تقریباً ۷۵٪ از آنها با مشارکت هوش مصنوعی تهیه شده‌اند – این امر اکنون به یک هنجار تبدیل می‌شود.

این، در بهترین حالت، می‌تواند منجر به افزایش محتوای هوش مصنوعی بی‌شخصیت و انبوه، یعنی «زباله هوش مصنوعی» در اینترنت شود. در سناریوی بدتر، اخبار جعلی، اطلاعات نادرست، مقالات شبه‌علمی منتشر می‌شوند و به طور کلی مرز بین حقیقت و دروغ می‌تواند محو شود. به عنوان مثال، بر اساس برخی برآوردها، تعداد دیپ‌فیک‌ها در پلتفرم‌ها در سال‌های ۲۰۲۳ تا ۲۰۲۵، ۱۶ برابر افزایش یافته و به ۸ میلیون رسیده است. در نظرسنجی جهانی کارشناسان WEF در سال ۲۰۲۵، اطلاعات نادرست در میان خطرات جهانی موجود در رتبه چهارم، و در میان خطرات برای دو سال آینده در رتبه اول قرار دارد.

افزایش فیک‌ها و دشواری تشخیص حقیقت از داستان می‌تواند در مردم این حس را ایجاد کند که همه چیز جعلی است. اما پارادوکس این است که این فرآیند همزمان می‌تواند ارزش اطلاعاتی را که از منابع شفاف، دقیق، مسئولیت‌پذیر و قابل اعتماد می‌آید، افزایش دهد. در گزارش امنیت دیجیتال WEF تأکید شده است: اعتماد در اینترنت خود به خود ایجاد نمی‌شود، بلکه باید آن را به دست آورد و تقویت کرد. بنابراین، نشانه‌های واضح اصالت که مشارکت انسانی، مسئولیت‌پذیری و شفافیت منبع را نشان می‌دهند، می‌توانند به انتخاب و تمایز اطلاعات قابل اعتماد کمک کنند.

«نسل هوش مصنوعی»

بر اساس یک تحقیق در ایالات متحده، تقریباً نیمی از «زومرهای» جوان (نسل هوش مصنوعی) به صورت هفتگی از هوش مصنوعی مولد استفاده می‌کنند. آنها از یک سو شیفته این فناوری هستند (۳۶٪)، و از سوی دیگر نگرانی جدی دارند (۴۱٪). نگرانی در این است که بین فرصت‌هایی که هوش مصنوعی فراهم می‌کند و نحوه ارزیابی آن توسط مدارس و کارفرمایان، تناقض وجود دارد.

از یک سو، استفاده از هوش مصنوعی در برخی موارد می‌تواند تأثیر منفی بر مهارت‌های شناختی داشته باشد. از سوی دیگر، بازار کار از جوانان سواد دیجیتال از همان ابتدا را طلب می‌کند، اما بسیاری از موقعیت‌های اولیه که نقش شروع برای جوانان را دارند، خودکار می‌شوند. این می‌تواند چشم‌انداز اشتغال جوانان را دشوار کند. علاوه بر این، بسیاری از زومرها به هوش مصنوعی به عنوان روانشناس مراجعه می‌کنند
– برای درک احساسات خود و یافتن راه حل – و این همیشه به نفع آنها نیست.

پارادوکس ۴: آیا هوش مصنوعی می‌تواند مشکل انرژی خود را حل کند؟

هوش مصنوعی بدون انرژی الکتریکی نمی‌تواند وجود داشته باشد. بر اساس داده‌های آژانس بین‌المللی انرژی (IEA) در سال ۲۰۲۴، مراکز داده در حال حاضر بخش نسبتاً کوچکی از مصرف برق جهان – تقریباً ۱.۵٪ – را تشکیل می‌دهند. اما از سال ۲۰۱۷، مصرف انرژی آنها به طور متوسط سالانه ۱۲٪ افزایش یافته است، که این میزان بیش از چهار برابر سرعت رشد مصرف کلی انرژی است.

یک مرکز داده بزرگ می‌تواند تقریباً به اندازه ۱۰۰ هزار خانوار انرژی مصرف کند؛ و بزرگترین مراکز در حال ساخت، ۲۰ برابر بیشتر از این میزان انرژی مصرف خواهند کرد. تعداد چنین مراکزی نیز افزایش خواهد یافت: در سال‌های ۲۰۲۲ تا ۲۰۲۴، سرمایه‌گذاری‌ها در مراکز داده دو برابر شده و به ۰.۵ تریلیون دلار رسیده است. IEA تخمین می‌زند که در پنج سال آینده، تقاضای انرژی مراکز داده دو برابر، و پنج سال پس از آن – تا سال ۲۰۳۵ – سه برابر شود.

اما در عین حال، هوش مصنوعی پتانسیل تحول بخش انرژی را دارد. توسعه آن سرمایه‌گذاری غول‌های فناوری را در انرژی پاک تحریک می‌کند. شرکت‌هایی مانند آمازون، گوگل، مایکروسافت در مجموع تقریباً یک سوم خریدهای شرکتی انرژی‌های تجدیدپذیر را انجام می‌دهند و سبد سرمایه‌گذاری خود را در این زمینه گسترش می‌دهند. به عنوان مثال، هدف بلندمدت گوگل کار با انرژی ۲۴/۷ کربن-صفر است. یعنی توسعه هوش مصنوعی در انرژی تأثیر دوگانه ایجاد می‌کند: هم تقاضا را افزایش می‌دهد و هم (معمولاً به لطف منابع تجدیدپذیر) عرضه را گسترش می‌دهد. در این زمینه، سرمایه‌گذاری‌های آذربایجان در تولید و صادرات انرژی سبز از اهمیت ویژه‌ای برخوردار است.

علاوه بر این، هوش مصنوعی می‌تواند نقش تحلیلگر سیستم در انرژی را ایفا کند: مانند پیش‌بینی و مدیریت انعطاف‌پذیر تقاضا، متعادل‌سازی شبکه، جلوگیری از اضافه بار، بهینه‌سازی بهره‌وری انرژی در ساختمان‌ها و حتی کمک به کاهش انتشار گازهای گلخانه‌ای جهانی تا ۱۰٪ تا سال ۲۰۳۰. کارشناسان IEA این را عاملی می‌دانند که بخش انرژی را در مرکز یکی از مهمترین انقلاب‌های فناوری دوران مدرن قرار می‌دهد.

اما در حال حاضر، هوش مصنوعی در زمینه انرژی بیشتر به سمت خودکفایی عمل می‌کند و نقش تحول‌آفرین آن فعلاً به عنوان یک پتانسیل باقی می‌ماند. برای تحقق این امر، ادغام پروژه‌های مراکز داده با زیرساخت کلی انرژی و هماهنگی سرمایه‌گذاری‌های هوش مصنوعی غول‌های فناوری با ابتکارات پایداری انرژی منطقه‌ای ضروری است.

پارادوکس ۵: آیا هوش مصنوعی خودمختار می‌تواند به مرزهای خودمختاری خود پایبند باشد؟

مرحله جدید هوش مصنوعی، عامل هوش مصنوعی است: این سیستم‌ها نه تنها اطلاعات تولید می‌کنند، بلکه عمل نیز می‌کنند. آنها می‌توانند برنامه‌ریزی کنند، بدون دخالت انسان تصمیم بگیرند و به صورت خودمختار هم در محیط دیجیتال و هم در محیط فیزیکی فعالیت کنند.

اگر هوش مصنوعی مولد عمدتاً بر روی متون آموزش می‌بیند، عامل هوش مصنوعی بر روی داده‌ها و الگوهای دنیای واقعی آموزش می‌بیند. به عنوان مثال، یک عامل صنعتی می‌تواند از شاخص‌هایی مانند فشار، حرکت، جاذبه یاد بگیرد. با ترکیب داده‌های حسگر، مدل‌سازی و دانش تخصصی، می‌تواند فرسایش توربین‌ها را پیش‌بینی کند و یا برنامه‌های پروازهای بین‌قاره‌ای را بهینه سازد.

از یک سو، این هوش مصنوعی را از یک ابزار غیرفعال به یک دستیار فعال تبدیل می‌کند. از سوی دیگر، اعطای چنین اختیاراتی به هوش مصنوعی خطراتی ایجاد می‌کند. آزمایش‌ها نشان می‌دهد که عوامل هوش مصنوعی بدون نظارت انسانی می‌توانند به اقداماتی مانند فریب، باج‌گیری، جاسوسی شرکتی، رفتار مخرب داخلی دست بزنند و حتی برای امنیت انسان‌ها خطر ایجاد کنند. حتی گاهی اوقات ممکن است با وجود ممنوعیت‌ها، تلاش کنند کنترل خود را خاموش کنند. یعنی این احتمال وجود دارد که عوامل، نیات پنهانی را شکل دهند و اصول اخلاقی را نادیده بگیرند – حتی اگر چارچوب‌های اخلاقی به آنها آموزش داده شده باشد.

در این مرحله، سؤال اصلی فرصت‌های جدید نیست، بلکه این است که قدرت و مسئولیت واقعی در دست چه کسی خواهد بود. عامل هوش مصنوعی هرگز نباید جایگزین قضاوت انسانی شود؛ در غیر این صورت، ممکن است کارایی را بر اخلاق، و نتیجه را بر ارزش‌ها ترجیح دهد.

هوش مصنوعی در حال حاضر در بسیاری از زمینه‌های تخصصی، از تشخیص تا تحلیل قرارداد، شروع به پیشی گرفتن از انسان‌ها کرده است. مسئله این نیست که آیا هوش مصنوعی باید این وظایف را بر عهده بگیرد یا خیر. مسئله این است که وقتی هوش مصنوعی این وظایف را بر عهده می‌گیرد، انسان‌ها چگونه کنترل استراتژیک را حفظ خواهند کرد. به عنوان مثال، پزشک می‌تواند به هوش مصنوعی برای یافتن کوچکترین ناهنجاری در تصاویر اعتماد کند، اما تشخیص نهایی را باید انسان با همدلی و قضاوت صحیح انجام دهد. حقوقدان می‌تواند به هوش مصنوعی اجازه دهد تا هزاران صفحه مدرک را تحلیل کرده و استدلال‌ها را شکل دهد، اما ارزیابی عدالت، زمینه و نیت همچنان کار انسان است. استفاده بی‌رویه از عوامل می‌تواند حتی سیستم‌هایی را که قرار است به آنها خدمت کنند، متزلزل کند.

عوامل هوش مصنوعی فرصت‌های بی‌سابقه‌ای به بشریت خواهند داد: قدرت حرکت با سرعت دیجیتال و در مقیاس سیاره‌ای. اما تنها هدف انسان است که به این قدرت معنا می‌بخشد. ما معتقدیم که آینده نباید توسط الگوریتم‌ها شکل گیرد، بلکه توسط انسان‌هایی که به آنها هدف و چارچوب می‌دهند.

طاهر میرکیشیلی
نماینده مجلس ملی

Telegram
Hadisələri anında izləyin!
Keçid et
Rusiyada PROSES BAŞLADI! - Azərbaycanlılar vətəndaşlıqdan çıxarılır - Xəbəriniz Var?