«یاشوا بنجیو»، دانشمند علوم کامپیوتر که بهعنوان یکی از پدرخواندههای هوش مصنوعی نیز شناخته میشود در مورد خطرات توسعه بیقاعده این فناوری هشدار داده است. او توسعه هوش مصنوعی را به ساخت هیولاهایی تشبیه کرده است که از انسان قویتر هستند.
یاشوا بنجیو از جمله کسانی است که بخش عمدهای از دوران کاری خود را به تحقیق در مورد شبکههای عصبی و الگوریتمهای یادگیری عمیق اختصاص داده است. محصولاتی مانند ChatGPT و Claude نتیجه مستقیم تحقیقات این دانشمند کانادایی هستند. او حالا در مورد توسعه هوش مصنوعی نگران است و در مصاحبهای اختصاصی با یاهو فاینانس به بیان این نگرانیها پرداخته است.
یاشوا بنجیو، پدرخوانده هوش مصنوعی، در مورد توسعه بیقاعده این فناوری هشدار داد
به گفته بنجیو، هوش نوعی از قدرت است و هر کسی که بتواند این قدرت را در سطح انسانی یا بالاتر تحت کنترل خود درآورد، بسیار بسیار قدرتمند خواهد بود. او همچنین در ادامه گفت:
«فناوری عموماً توسط افرادی استفاده میشود که خواهان قدرت بیشتر هستند: تسلط اقتصادی، تسلط نظامی، تسلط سیاسی؛ بنابراین قبل از ایجاد فناوری که بتواند قدرت را به روشهای خطرناک متمرکز کند. ما باید بسیار مراقب باشیم.»
یاشوا بنجیو در پاسخ به این سؤال که چرا باید نگران هوش مصنوعی در سطح انسانی باشیم گفت:
«اگر این [هوش مصنوعی] به دست افراد نادرست بیفتد، میتواند بسیار خطرناک باشد. این ابزارها میتوانند بهزودی به کمک تروریستها و بازیگران دولتی که میخواهند دموکراسیهای ما را نابود کنند بیایند. مسئله دیگری که وجود دارد و بسیاری از دانشمندان نیز به آن اشاره کردهاند نحوه آموزش هوش مصنوعی است. ما بهوضوح نمیدانیم که چگونه میتوانیم از مستقلشدن این سیستمها جلوگیری کنیم و نگذاریم اهدافی برای محافظت از خودشان داشته باشند. ما ممکن است کنترل این سیستمها را از دست بدهیم؛ بنابراین در مسیری هستیم که شاید هیولاهایی بسازیم که میتوانند از ما قدرتمندتر باشند.»
تا به امروز افراد زیادی از حوزه فناوری و دانشمندان نگرانیهای خود در مورد آینده هوش مصنوعی و اثرات آن بر آینده بشریت را مطرح کردهاند. برای مثال، بیل گیتس بهتازگی سه نگرانی بزرگ خود در مورد هوش مصنوعی را علنی کرده است. در مقابل، برخی دیگر از مدیران فناوری اعتقاد دارند جهان به هوش مصنوعی پیشرفتهتر و بیشتر نیاز دارد و حتی باید سرمایهگذاریهای بیشتری روی ساخت دیتاسنترهای هوش مصنوعی انجام شود.