فناوری

هوش‌مصنوعی در ۲۰۲۴ ترسناک‌تر از آن چیزی می‌شود که فکرش را می‌کنید!

اگرچه در سال ۲۰۲۳، هوش مصنوعی پیشرفت‌های حیرت‌آوری را به دنیا ارائه کرد، ولی این تنها آغاز این ماجراست؛ سال ۲۰۲۴ در شرایطی آغاز شده که باید منتظر پیشرفت‌های ترسناکی باشیم که ممکن است شامل هوش مصنوعی عمومی و حتی دیپ فیک‌های به مراتب واقعی‌تر باشد.

دهه‌هاست که عبارت “هوش مصنوعی” در مباحث و مجالس علمی مطرح بوده است؛ اما امسال، با رونمایی از ChatGPT محصول شرکت OpenAI که برای عموم قابل دسترس و کاربردی است، پیشرفت‌های علمی وارد مرحله دیگری شده است. با این حال هوش مصنوعی، تاریخچه‌ای دیرینه دارد و تا پیش از دست‌یابی به فناوری امروزی، سابقه کوتاهی از آزمایش‌های ناموفق وجود داشت.

در بیشتر موارد این طور به نظر می‌رسد که نوآوری‌های هوش مصنوعی در بهبود مواردی مثل تشخیص پزشکی و اکتشافات علمی کاربردی بوده است. به عنوان مثال یک مدل هوش مصنوعی می‌تواند با تجزیه و تحلیل اسکن پزشکی، تشخیص دهد که آیا شما در معرض خطر بالای ابتلا به سرطان ریه هستید یا خیر. در جریان پاندمی کووید ۱۹، دانشمندان الگوریتمی ساختند که می‌توانست با گوش دادن به تفاوت‌های ظریف در صدای سرفه افراد، وجود این ویروس در بدن فرد را تشخیص دهد؛ هوش مصنوعی همچنین در طراحی آزمایش‌های فیزیک کوانتومی فراتر از آنچه تصور می‌کنیم، مورد استفاده قرار می‌گیرد.

اما تمام موارد استفاده از این نوآوری‌ها چندان خوشایند و دلپذیر و مطلوب نیستند؛ از پهپادهای قاتل گرفته تا هوش مصنوعی که آینده بشر را مورد تهدید قرار می‌دهد. در این مقاله قصد داریم تا به بررسی تعدادی از ترسناک‌ترین پیشرفت‌های هوش مصنوعی که احتمالا در سال ۲۰۲۴ مورد استفاده قرار خواهد گرفت بپردازیم:

 

سن هوش مصنوعی عمومی (AGI)

ما دقیقا نمی‌دانیم که چرا سام آلتمن، مدیرعامل OpenAI در اواخر سال ۲۰۲۳ از سمتش برکنار شد و دوباره به پست خود بازگردانده شد. اما در بحبوحه هرج و مرج‌هایی که در شرکت OpenAI به وجود آمده بود، شایعاتی درباره فناوری پیشرفته‌ای که می‌تواند آینده بشریت را تهدید کند، مطرح شد. سیستم OpenAI که Q* (کیو استار) نامیده می‌شود، ممکن است تحقق بالقوه پیشگامانه هوش مصنوعی عمومی (AGI) را تجسم ببخشد. البته اطلاعات درباره این سیستم مرموز محدود است؛ اما در صورت صحت گزارش‌ها، این سستم می‌تواند قابلیت‌های هوش مصنوعی را چندین سطح درجه افزایش دهد.

AGI یک نقطه اوج فرضی است که از آن تحت عنوان “تکینگی” نیز یاد می‌شود. یعنی زمانی که در آن هوش مصنوعی هوشمندتر از انسان می‌شود. نسل فعلی هوش مصنوعی هنوز در برخی زمینه‌ها مثل استدلال مبتنی بر زمینه و خلاقیت واقعی که انسانها هنوز برتر هستند، از بشر عقب مانده است. همه یا دست کم بیشتر محتوای تولید شده توسط هوش مصنوعی، به نوعی داده‌هایی که برای آموزش آنها مورد استفاده قرار گرفته را پس می‌گیرند.

اما طبق گفته دانشمندان، AGI می‌تواند به شکل بالقوه مشاغل خاصی را به مراتب بهتر از انسان‌ها انجام دهد. همچنین می‌توان از آن برای ایجاد عوامل بیماری‌زا، حملات سایبری گسترده و یا سازمان‌دهی دستکاری توده‌ها استفاده کرد.

ایده AGIمدت‌هاست که به داستان‌های علمی تخیلی محدود شده و بسیاری از دانشمندان معتقدند که هرگز به این نقطه نخواهیم رسید. البته برای شرکت OpenAI رسیدن به همین نقطه اوج هم یک شوک بزرگ است. به عنوان مثال می‌دانیم که سام آلتمن در فوریه سال ۲۰۲۳، رویکرد OpenAI به AGI را در یک وبلاگ تشریح کرد. بارونز در گزارشی به این نکته اشاره کرد که ما می‌دانیم که متخصصان شروع به پیش‌بینی یک پیشرفت قریب‌الوقوع کرده‌اند؛ از جمله این افراد می‌توان به جنسن هوانگ، مدیرعامل Nvidia اشاره کرد که در نوامبر یادآور شد که AGI در پنج سال آینده در دسترس عموم خواهد بود. آیا سال ۲۰۲۴، سال شکست AGI خواهد بود؟ تنها گذر زمان این را نشان خواهد داد.

 

دیپ فیک‌های واقع‌گرایانه تقلب در انتخابات

یکی از مهمترین تهدیدهای سایبری، دیپ فیک است؛ دیپ فیک به معنی تولید تصاویر یا ویدیوهای کاملا ساختگی از افراد است که اطلاعات نادرست از آنها ارائه کرده، آنها را متهم کرده و یا به سخره می‌گیرد. تکنولوژی دیپ فیک هوش مصنوعی، هنوز آنقدر خوب نیست که به منزله یک تهدید تلقی شود، ولی ممکن است در آینده تغییراتی داشته باشد.

هوش مصنوعی حالا می‌تواند دیپ فیک‌های real-time و ویدیوهای لایو تولید کند و آنقدر پیشرفت کرده که می‌تواند تصویر صورت‌های انسان را به نحوی خلق کند که افراد نمی‌توانند فرق بین تصویر واقعی و فیک را تشخیص دهند. در تحقیق دیگری که نتیجه آن در روز سیزدهم نوامبر در محله Psychological Science منتشر شد، پدیده “هیپررئالسیم” مطرح شد که در آن محتوای تولید شده توسط هوش مصنوعی، بیشتر به عنوان “واقعی” به جای محتوای واقعی تلقی می‌شود.

این امر عملا تشخیص واقعیت از خیال با چشم غیرمسلح را برای افراد غیرممکن می‌کند. گرچه ابزارها می‌توانند در شناسایی دیپ فیک به افراد کمک کنند، ولی این ابزارها هنوز در جریان اصلی قرار نگرفته‌اند. به عنوان مثال، اینتل یک تشخیص دهنده real time ساخته که با استفاده از هوش مصنوعی، جریان خون را آنالیز می‌کند. ولی طبق گزارش بی بی سی، FakeCatcher نتایج متفاوتی را به همراه داشته.

همانطور که هوش مصنوعی مولد به بلوغ می‌رسد، یک احتمال ترسناک وجود دارد که مردم می‌توانند از دیپ فیک برای اعمال تغییرات در انتخابات استفاده کنند. فایننشال تایمز در گزارشی به این نکته اشاره کرده که مثلا بنگلادش خود را برای برگزاری انتخابات در ژانویه ۲۰۲۴ آماده می‌کند که احتمالا توسط دیپ فیک مختل خواهد شد. در شرایطی که آمریکا برای انتخابات ریاست جمهوری در نوامبر ۲۰۲۴ آماده می‌شود، این احتمال وجود دارد که هوش مصنوعی و دیپ فیک‌ها بتوانند نتیجه رای گیری این انتخابات مهم را تغییر دهند. مثلا US Berkeley ، استفاده از هوش مصنوعی در مبارزات انتخاباتی را زیرنظر دارد و NBC News در گزارشی به این نکته اشاره کرده که بسیاری از ایالت‌ها فاقد قوانین یا ابزار لازم برای رسیدگی به موارد افزایش اطلاعات نادرست تولید شده توسط هوش مصنوعی هستند.

ربات‌های قاتل با هوش مصنوعی

استفاده از هوش مصنوعی در ابزارهای جنگی توسط دولت‌ها در سرتاسر جهان در حال افزایش است. دولت آمریکا در ۲۲ نوامبر اعلام کرد که ۴۷ ایالت این کشور بیانیه‌ای را درباره استفاده مسئولانه از هوش مصنوعی در ارتش تائید کرده‌اند؛ بیانیه‌ای که اولین بار در ماه فوریه در لاهه ارائه شد. اما چرا چنین اعلامیه‌ای لازم است؟ چرا که استفاده غیرمسئولانه از هوش مصنوعی، چشم‌اندازی وحشتناک را به همراه خواهد داشت. مثلا شنیده می‌شود که پهپادهای هوش مصنوعی در لیبی بدون بهره‌گیری از نیروی انسانی، به شکار سربازان می‌پردازند.

هوش مصنوعی قابلیت تشخیص الگوها، خودآموزی، پیش بینی و ارائه توصیه‌هایی در زمینه‌های نظامی را داراست. این احتمال وجود دارد که در سال ۲۰۲۴، هوش مصنوعی نه تنها در سیستم‌های تسلیحاتی مورد استفاده قرار بگیرد، بلکه در سیستم‌های لجستیک و پشتیبانی تصمیم و همچنین تحقیق و توسعه نیز کاربردی شود. مثلا در سال ۲۰۲۲، هوش مصنوعی، ۴۰ هزار سلاح شیمیایی جدید و فرضی تولید کرد. شاخه های مختلف ارتش آمریکا، پهپادهایی را سفارش داده‌اند که می‌توانند تشخیص هدف و ردیابی نبرد را حتی بهتر از انسان‌ها انجام دهند.

در سوی دیگر، اسرائیل نیز از هوش مصنوعی برای شناسایی سریع اهداف بهره برده و این روش حداقل۵۰ برابر سریعتر از عملکرد انسانی عمل می‌کند.

ولی یکی از ترسناک‌ترین زمینه‌های توسعه، درباره سیستم‌های تسلیحاتی مرگبار (LAWS) یا ربات‌های قاتل است. در طول یک دهه اخیر، چندین دانشمند و متخصص تکنولوژی درباره تولید و استفاده از ربات‌های قاتل هشدار داده‌اند که از جمله آنها می‌توان به استیون هاوکینگ در سال ۲۰۱۵ و یا ایلان ماسک در سال ۲۰۱۷ اشاره کرد؛ البته این فناوری هنوز در مقیاس انبوه مورد بهره‌برداری قرار نگرفته است.

با این وجود، برخی پیشرفت‌های نگران کننده، حکایت از آن دارد که در سال جدید میلادی، ممکن است شاهد رشد و پیشرفت ربات‌های قاتل باشیم. به عنوان مثال ظاهرا روسیه در اوکراین، از پهپادی به نام Zala KYB-UAV بهره می‌برد که قابلیت شناسایی و حمله به اهداف را بدون دخالت انسانی داراست. استرالیا هم یک سیستم زیردریایی خودمختار به نام Ghost Shark را توسعه داده که یک سیستم زیردریایی خودمختار است که قرار است به زودی در مقیاسی بالا تولید شود.

به گزارش داتنا و روئیترز، افزایش تعداد کشورهایی که در حال سرمایه‌گذاری برروی هوش مصنوعی هستند، خود یک نشانه است. هزینه‌های چین در بهره‌گیری از هوش مصنوعی از ۱۱.۶ میلیون دلار در سال ۲۰۱۰ به ۱۴۱ میلیون دلار در سال ۲۰۱۹ افزایش یافته و این بدین معناست که چین در مسیر بهره‌گیری از LAWS وارد رقابت با آمریکا شده است. این پیشرفت‌ها حکایت از آن دارد که ما در حال ورود به مرحله جدیدی از جنگ هوش مصنوعی هستیم.

منبع: livescience

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا