این فناوری به اندازه سلاح هستهای خطرناک است!
روزیاتو نوشت: دانشمندان هوش مصنوعی در حال توسعه یک مغز دیجیتالی هستند که میتواند مغز انسان را پشت سر بگذارد و به گفته یکی از متخصصان این حوزه اینجا جایی است که ما باید بترسیم
کوین باراگونا، بنیانگذار DeepAI هشدار داد که رشد سریع سیستم های اطلاعاتی مافوق بشری نوید نوع جدیدی از آینده را خواهد داد که «باید انسان را وحشتزده کند.» شنیدن این حرفها و درخواست سرکوب فناوری از جانب مردی که معیشت و یک دهه زندگی خود را صرف هوش مصنوعی مولد کرده، شاید غیرعادی به نظر برسد.
باراگونا توسعه سریع هوش مصنوعی مولد پیشرفته -ابزارهای یادگیری ماشینی بههمپیوسته که میتواند برای تولید هنر، موسیقی و حتی ایدهها استفاده شود- را با «پرورش یک مغز دیجیتال» مقایسه کرد و هشدار داد درست همانطور که هنوز ذهن انسان را بهطور کامل درک نکردهایم، ممکن است به نقطهای برسیم که دیگر قادر به فهم هوش مصنوعی نباشیم.
او در نگرشی تلخ نسبت به آینده گفت: «اگر کامپیوترهایی باهوشتر از انسان بسازیم دیگر چه چیزی برای انسان باقی میماند؟ ما در حال ساخت چه نوع آیندهای هستیم؟»
او هشدار داد که توسعه سریع هوش مصنوعی که با ابزارهای شدیدا تحتکنترل مانند ChatGPT معروف شده است، قابل مقایسه با خطر ناشی از سلاح های هسته ای است.
باراگونا گفت: «این فناوری به سرعت در جهت منافع خود در حال توسعه است.» و ترسی که وجود دارد این است که این مغزهای هوش مصنوعی به زودی به سطح هوشی بالاتر از انسان برسند و اینکه آیا میتوانیم از این وضعیت جان سالم به در ببریم؟
او گفت: «ما در این کار آنقدر خوب هستیم که در حال حاضر هوش مصنوعی میتواند بسیاری از کارهای مشابهی که مغز انسان قادر به انجام آن است را انجام بدهد.» و هشدار داد: «این موضوع جنگی بین دولتها به وجود نخواهد آورد، بلکه نبرد واقعی بین هوش مصنوعی و بشریت خواهد بود.»
کوین باراگونا که در دنیای مولد هوش مصنوعی کهنهکار است این پیشرفت را «سلاح هسته ای نرم افزاری» توصیف میکند که بدون هیچگونه توجهی در حال رها شدن است.
سیستم های هوش مصنوعی مولد در آموزش خود چنان سرعتی دارند که از انتظارات فراتر میروند و داده های هرچه بیشتری را مهار و از الگوریتم های پیچیدهتری استفاده میکنند.
الیزر یودکوفسکی، کارشناس برجسته هوش مصنوعی، این پدیده را «سقوط به سوی فاجعه» مینامد؛ جایی که «محتملترین نتیجه آن این است که هوش مصنوعی چیزی که ما میخواهیم را انجام نمیدهد و به ما و بهطور کلی به زندگی دارای درک و احساس اهمیتی نمیدهد.»
اواخر ماه مارس بیش از هزار متخصص برجسته هوش مصنوعی در نامه ای سرگشاده خواستار ممنوعیت فوری ششماهه آموزش سیستم های هوش مصنوعی قدرتمند شدند که در رقابتی کنترلنشده برای توسعه و استقرار مغزهای دیجیتال تلاش میکنند؛ مغزهای دیجیتالی که هیچکس حتی سازندگان آنها قادر به درک، پیشبینی یا کنترل آنها نخواهند بود.
کوین باراگونا که همراه با افرادی نظیر استیو وزنیاک، از بنیانگذاران اپل و ایلان ماسک، از امضاکنندگان این نامه بود میگوید: «امید داشتیم که یک موج اختلال ششماهه ایجاد کنیم تا مردم را به فکر واداریم.»
با این حال او هنوز به ماموریت کلی هوش مصنوعی شدیدا معتقد است؛ اینکه یادگیری ماشینی میتواند بسیاری از مشکلات را حل کند و زندگی را به سمت بهتر شدن تغییر دهد و حتی منجر به پیشرفتهای پزشکی شود. اما بازهم خطر جایگزینی میلیاردها شغل با رباتها را نیز به دنبال دارد و به گفته او ممکن است رهبران هوش مصنوعی در نهایت همه ما را بکشند.
در ماه جاری، بیش از یک سوم پژوهشهای فناوری که توسط دانشگاه استنفورد در کالیفرنیا مورد بررسی قرار گرفتند، به این نتیجه رسیدند که «تصمیمات اتخاذشده توسط هوش مصنوعی میتواند فاجعهای بهاندازه یک جنگ هستهای همهجانبه در قرن جاری ایجاد کند».
باراگونا میگوید: «در پنج سال آینده هوش مصنوعی به اندازهای که گوگل امروز در زندگی روزمره مردم جای دارد، جای خواهد گرفت. ۱۰ سال دیگر، آینده شبیه فیلم های علمی تخیلی خواهد شد و این باید همه را وحشتزده کند.