به گفته جفری هینتون، پیشگام هوش مصنوعی، پیشرفتها در زمینه فناوری هوش مصنوعی، جهان را به سمت دورهای از عدم قطعیت بزرگ سوق میدهد
به گفته "جفری هینتون"، پیشگام هوش مصنوعی، پیشرفتها در زمینه فناوری هوش مصنوعی، جهان را به سمت "دورهای از عدم قطعیت بزرگ" سوق میدهد.
وی معتقد است با هوشمندتر شدن این فناوری، لااقل در شش مورد ممکن است که این تکنولوژی برای انسان خطرناک باشد.
پدرخوانده هوش مصنوعی: ۶ روشی که هوش مصنوعی میتواند به انسان آسیب برساند چیست
هینتون در حالی که در کنفرانس امسال فناوری "کالیژن" در تورنتو صحبت میکرد، توضیح داد که برخی از خطرات پیرامون استفاده از هوش مصنوعی ناشی از این احتمال است که ممکن است برخی از افراد از آن برای کنترل دیگران استفاده کنند. هینتون گفت: "ما باید این احتمال را جدی بگیریم که اگر هوش مصنوعی باهوشتر از ما شوند، که کاملا محتمل به نظر میرسد، و اهداف خودشان را داشته باشند، که کاملا محتمل به نظر میرسد، چه زیر نظر ما باشند و چه نباشند، امکان دارد برای هدفی مانند توسعه کنترل بر جهان به کار روند که در اینصورت ما به مشکل برخواهیم خورد.
جفری که هم روانشناس شناختی و هم دانشمند کامپیوتر است، اوایل سال جاری از گوگل استعفا داد تا بتواند با فراغ خاطر و بطور کاملا آزاد و واضح در مورد خطرات احتمالی هوش مصنوعی صحبت کند. وی ماههاست که نگرانیهای خود را بیان کرده و میگوید در دسترس قرار گرفتن فناوری هوش مصنوعی از طریق ابزارهایی مانند "چت جیپیتی" میتواند این موضوع را سریعتر، پیچیدهتر و غیر قابل کنترلتر کند. او میگوید کنترل هوش مصنوعی همراه با طرح مسائل اخلاقی، مانند سرقتهای ادبی، افشای اطلاعات شخصی، نتایج توهینآمیز، ارائه نظرات مغرضانه بعنوان حقیقت، بسیار سخت خواهد بود.
هینتون در این نشست در مرکز کنفرانس بود و با صدها نفر از شرکت کنندگان صحبت کرد، برخی از آنها پس از پُر شدن سریع صندلیها روی زمین نشستند. بیش از ۴۰,۰۰۰ نفر از سراسر جهان برای این کنفرانس فناوری امسال به تورنتو رفته بودند و تقریبا همه صحبتها به پیامدهای گسترده هوش مصنوعی در زندگی اشاره میکرد. هینتون در گفتگوی خود با "نیک تامپسون"، مدیر عامل "آتلانتیک" گفت که مدلهای زبان بزرگ هوش مصنوعی "هنوز نمیتوانند به پای استدلال انسان برسند، اگرچه در حال نزدیک شدن به آن هستند". وقتی تامپسون پرسید که آیا انسانها میتوانند کاری انجام دهند که یک مدل زبان بزرگ هوش مصنوعی نتواند در آینده به آن برسد، پاسخ داد: "نه". وی که یک دانشمند بریتانیایی - کاناداییست گفت: "ما فقط یک ماشین هستیم… ماشینی از یک شبکه عصبی بزرگ. دلیلی وجود ندارد که یک شبکه عصبی مصنوعی نتواند هر کاری که ما میتوانیم انجام دهیم را انجام دهد".
در حالیکه یوشوا بنجیو، یکی از دو همکار هینتون با وی موافق است و میگوید باید هرچه سریعتر فکری به حال این وضعیت کرد و قوانینی را پیادهسازی کرد، "یان لوکان" دانشمند کامپیوتر فرانسوی که نفر سوم این همکاران است با آنها مخالف است و دیدگاه خود را در مورد هوش مصنوعی در کنفرانس "ویوا تکنولوژی" در پاریس در اوایل این ماه چنین به اشتراک گذاشت: "هوش مصنوعی ذاتا خوب است". او در ۱۴ ژوئن گفت: "تاثیر هوش مصنوعی این است که مردم را باهوشتر میکند". هینتون، یوشوا و لوکان سه برنده جایزه "ایام تورینگ"، معروف به جایزه "نوبل محاسبات"، در سال ۲۰۱۸ هستند و به سه پدرخوانده هوش مصنوعی مشهورند.
هینتون میگوید که هوش مصنوعی طراحی شده با نیت خوب، میتواند به دست افراد بد بیافتد و همه چیز از هم گسسته شود. او گفت: "من متقاعد نشدهام که هوش مصنوعی خوب که تلاش میکند جلوی کنترل هوش مصنوعی بد را بگیرد، برنده شود". به گفته وی در شش زمینه زیر، خطر کلیدی وجود دارد که ممکن است هوش مصنوعی برای انسان ایجاد کند:
۱- تعصب و تبعیض
هینتون میگوید که هوش مصنوعی از همین حالا با مجموعه دادههایی که یکطرفه هستند تعلیم دیده شده است، و به همین دلیل میتواند پاسخهایی به مسائل بدهد که به همان اندازه تعلیمش، مغرضانه باشد زیرا تعالیمش شامل گستره وسیعی از دیدگاهها و استدلالهای مختلف دیدگاههای متفاوت نبوده است.
۲- جنگ رباتها
ایده نیروهای مسلح رباتیک در سراسر جهان که مسلح به سلاحهای خودمختار مرگبار هستند، کاملا ایدهای واقعبینانه است. بسیاری از کشورها در این راه قرار دارند و میتوانند از هوش مصنوعی برای بهینه کردن استفاده از ربات و نیز به تولید رباتهای قاتل رباتهای دیگر یا رباتهای قاتل انسانها بپردازند. به همین دلیل لازم است معاهدهای مشابه کنوانسیون ژنو به منظور ایجاد استانداردهای حقوقی بینالمللی در مورد منع استفاده از این نوع فناوری مفید باشد.
۳- بیکاری
با اینکه احتمال بیشتری وجود دارد که کارفرمایان از هوش مصنوعی برای جایگزینی برخی از وظایف افراد استفاده کنند و مبادرت به جایگزینی کل شغل یک فرد با هوش مصنوعی نکنند اما پذیرش این فناوری "به تدریج اما سریع" اتفاق میافتد و بسیاری از مشاغل حذف میشوند. او به جوانان توصیه کرد که به مشاغلی در زمینههای ترکیبی بدنی - فکری که روتین انسانها نیست (مانند لولهکشی) بپردازند.
۴- اتاقک اکو
این اصلاحیست که در آن یک حرکت باعث آغاز یک سلسله حرکت دیگر و بازگشت به مقصود حرکت کننده اول، گفته میشود. نمونه بارز آن شرکتهای بزرگی هستند که یک "محتوا" را به کاربران ارائه میدهند تا آنها را "خشمگین" یا "تحریک" کنند و به واسطه آن، کاربران تشویق شوند تا بیشتر کلیک کنند و شرکتها از کلیکهای آنها سود ببرند. در این حالت هوش مصنوعی با داشتن بازخورد از کاربران، راههای حداکثری کلیکها و محتواها را ارائه میکنند.
۵- اخبار جعلی
هوش مصنوعی به راحتی میتواند برایتان خبر جعلی درست کند و فرد جعلی بیافریند. در نتیجه، انسان باید بتواند اطلاعات صحیح و جعلی را علامتگذاری کند تا دچار اشتباه نشود.
۶- خطر نابودی انسان
هینتون همچنین در مورد تهدیدی که هوش مصنوعی ممکن است برای موجودیت بشریت ایجاد کند، ابراز نگرانی کرد و گفت: "اگر این فناوری بسیار هوشمندتر از انسان شود و بتواند خودش را تغییر دهد، ممکن است کنترل همه چیز را به دست بگیرد و این یعنی نابودی انسان".
وی معتقد است با هوشمندتر شدن این فناوری، لااقل در شش مورد ممکن است که این تکنولوژی برای انسان خطرناک باشد.
پدرخوانده هوش مصنوعی: ۶ روشی که هوش مصنوعی میتواند به انسان آسیب برساند چیست
هینتون در حالی که در کنفرانس امسال فناوری "کالیژن" در تورنتو صحبت میکرد، توضیح داد که برخی از خطرات پیرامون استفاده از هوش مصنوعی ناشی از این احتمال است که ممکن است برخی از افراد از آن برای کنترل دیگران استفاده کنند. هینتون گفت: "ما باید این احتمال را جدی بگیریم که اگر هوش مصنوعی باهوشتر از ما شوند، که کاملا محتمل به نظر میرسد، و اهداف خودشان را داشته باشند، که کاملا محتمل به نظر میرسد، چه زیر نظر ما باشند و چه نباشند، امکان دارد برای هدفی مانند توسعه کنترل بر جهان به کار روند که در اینصورت ما به مشکل برخواهیم خورد.
جفری که هم روانشناس شناختی و هم دانشمند کامپیوتر است، اوایل سال جاری از گوگل استعفا داد تا بتواند با فراغ خاطر و بطور کاملا آزاد و واضح در مورد خطرات احتمالی هوش مصنوعی صحبت کند. وی ماههاست که نگرانیهای خود را بیان کرده و میگوید در دسترس قرار گرفتن فناوری هوش مصنوعی از طریق ابزارهایی مانند "چت جیپیتی" میتواند این موضوع را سریعتر، پیچیدهتر و غیر قابل کنترلتر کند. او میگوید کنترل هوش مصنوعی همراه با طرح مسائل اخلاقی، مانند سرقتهای ادبی، افشای اطلاعات شخصی، نتایج توهینآمیز، ارائه نظرات مغرضانه بعنوان حقیقت، بسیار سخت خواهد بود.
هینتون در این نشست در مرکز کنفرانس بود و با صدها نفر از شرکت کنندگان صحبت کرد، برخی از آنها پس از پُر شدن سریع صندلیها روی زمین نشستند. بیش از ۴۰,۰۰۰ نفر از سراسر جهان برای این کنفرانس فناوری امسال به تورنتو رفته بودند و تقریبا همه صحبتها به پیامدهای گسترده هوش مصنوعی در زندگی اشاره میکرد. هینتون در گفتگوی خود با "نیک تامپسون"، مدیر عامل "آتلانتیک" گفت که مدلهای زبان بزرگ هوش مصنوعی "هنوز نمیتوانند به پای استدلال انسان برسند، اگرچه در حال نزدیک شدن به آن هستند". وقتی تامپسون پرسید که آیا انسانها میتوانند کاری انجام دهند که یک مدل زبان بزرگ هوش مصنوعی نتواند در آینده به آن برسد، پاسخ داد: "نه". وی که یک دانشمند بریتانیایی - کاناداییست گفت: "ما فقط یک ماشین هستیم… ماشینی از یک شبکه عصبی بزرگ. دلیلی وجود ندارد که یک شبکه عصبی مصنوعی نتواند هر کاری که ما میتوانیم انجام دهیم را انجام دهد".
در حالیکه یوشوا بنجیو، یکی از دو همکار هینتون با وی موافق است و میگوید باید هرچه سریعتر فکری به حال این وضعیت کرد و قوانینی را پیادهسازی کرد، "یان لوکان" دانشمند کامپیوتر فرانسوی که نفر سوم این همکاران است با آنها مخالف است و دیدگاه خود را در مورد هوش مصنوعی در کنفرانس "ویوا تکنولوژی" در پاریس در اوایل این ماه چنین به اشتراک گذاشت: "هوش مصنوعی ذاتا خوب است". او در ۱۴ ژوئن گفت: "تاثیر هوش مصنوعی این است که مردم را باهوشتر میکند". هینتون، یوشوا و لوکان سه برنده جایزه "ایام تورینگ"، معروف به جایزه "نوبل محاسبات"، در سال ۲۰۱۸ هستند و به سه پدرخوانده هوش مصنوعی مشهورند.
هینتون میگوید که هوش مصنوعی طراحی شده با نیت خوب، میتواند به دست افراد بد بیافتد و همه چیز از هم گسسته شود. او گفت: "من متقاعد نشدهام که هوش مصنوعی خوب که تلاش میکند جلوی کنترل هوش مصنوعی بد را بگیرد، برنده شود". به گفته وی در شش زمینه زیر، خطر کلیدی وجود دارد که ممکن است هوش مصنوعی برای انسان ایجاد کند:
۱- تعصب و تبعیض
هینتون میگوید که هوش مصنوعی از همین حالا با مجموعه دادههایی که یکطرفه هستند تعلیم دیده شده است، و به همین دلیل میتواند پاسخهایی به مسائل بدهد که به همان اندازه تعلیمش، مغرضانه باشد زیرا تعالیمش شامل گستره وسیعی از دیدگاهها و استدلالهای مختلف دیدگاههای متفاوت نبوده است.
۲- جنگ رباتها
ایده نیروهای مسلح رباتیک در سراسر جهان که مسلح به سلاحهای خودمختار مرگبار هستند، کاملا ایدهای واقعبینانه است. بسیاری از کشورها در این راه قرار دارند و میتوانند از هوش مصنوعی برای بهینه کردن استفاده از ربات و نیز به تولید رباتهای قاتل رباتهای دیگر یا رباتهای قاتل انسانها بپردازند. به همین دلیل لازم است معاهدهای مشابه کنوانسیون ژنو به منظور ایجاد استانداردهای حقوقی بینالمللی در مورد منع استفاده از این نوع فناوری مفید باشد.
۳- بیکاری
با اینکه احتمال بیشتری وجود دارد که کارفرمایان از هوش مصنوعی برای جایگزینی برخی از وظایف افراد استفاده کنند و مبادرت به جایگزینی کل شغل یک فرد با هوش مصنوعی نکنند اما پذیرش این فناوری "به تدریج اما سریع" اتفاق میافتد و بسیاری از مشاغل حذف میشوند. او به جوانان توصیه کرد که به مشاغلی در زمینههای ترکیبی بدنی - فکری که روتین انسانها نیست (مانند لولهکشی) بپردازند.
۴- اتاقک اکو
این اصلاحیست که در آن یک حرکت باعث آغاز یک سلسله حرکت دیگر و بازگشت به مقصود حرکت کننده اول، گفته میشود. نمونه بارز آن شرکتهای بزرگی هستند که یک "محتوا" را به کاربران ارائه میدهند تا آنها را "خشمگین" یا "تحریک" کنند و به واسطه آن، کاربران تشویق شوند تا بیشتر کلیک کنند و شرکتها از کلیکهای آنها سود ببرند. در این حالت هوش مصنوعی با داشتن بازخورد از کاربران، راههای حداکثری کلیکها و محتواها را ارائه میکنند.
۵- اخبار جعلی
هوش مصنوعی به راحتی میتواند برایتان خبر جعلی درست کند و فرد جعلی بیافریند. در نتیجه، انسان باید بتواند اطلاعات صحیح و جعلی را علامتگذاری کند تا دچار اشتباه نشود.
۶- خطر نابودی انسان
هینتون همچنین در مورد تهدیدی که هوش مصنوعی ممکن است برای موجودیت بشریت ایجاد کند، ابراز نگرانی کرد و گفت: "اگر این فناوری بسیار هوشمندتر از انسان شود و بتواند خودش را تغییر دهد، ممکن است کنترل همه چیز را به دست بگیرد و این یعنی نابودی انسان".
بیشتر بخوانید:
- علمی؛ هشدار شدید گوگل، ماکروسافت، اوپناِیآی، دیپمایند، آنتروپیک و ۳۵۰ مدیر ارشد شرکتهای بزرگ: هوش مصنوعی میتواند خیلی زودتر از تغییرات آب و هوایی بشر را منقرض کند
- علمی؛ دانشمندان کانادایی و آمریکایی با هوش مصنوعی اولین آنتیبیوتیک برای نابودی یک باکتری بسیار کُشنده و مقاوم بیمارستانی را ساختند
- علمی؛ محققان دانشگاهی کانادا: کودکان یادگیری از رباتهای هوشمند را به انسانهایی که کمتر میدانند، ترجیح میدهند
- علمی؛ روش تشخیص جدید بیماری آلزایمر با دقتی بیشتر از ۹۰%: هوش مصنوعی
- مشاغلی که هوش مصنوعی آنلاین جدید "چت جیپیتی" میتواند آنها را نابود کند چیستند؟
- علمی؛ آغاز جنگ آنلاین هوش مصنوعیها: پس از ظهور چتجیپیتی هوش مصنوعی مکالمهای میکروسافت، گوگل اعلان کرد مشابه آن را به نام بارد عرضه میکند
- هوش مصنوعی در ژن انسان یک جد ناشناخته "روح" دختر نوجوان پیدا کرد
- برنامه هوش مصنوعی که سکته را پیشبینی و پیشگیری میکند بالاترین جایزه اجتماعی بیزینسی کانادا را بدست آورد
- دکتر امین مدنی؛ پزشک تورنتویی نخبهای که انقلاب هوش مصنوعی را وارد عمل جراحی کرد
- علمی: دانشمندان با هوش مصنوعی و دستکاری ژن، به یک قدمی زنده کردن انسانهای گذشته و آینده رسیدند
- هوش مصنوعی 50% کارهای انسانی را طی 15 سال حذف میکند
- محققان امآیتی هوش مصنوعی مبتلا به روانپریشی درست کردند
اگر شما همکاری گرامی ما هستی، مرسی که این مطلب را خواندی، اما کپی نکن و با تغییر به نام خودت نزن، خودت زحمت بکش!
پروتکل علمی - پزشکی جهانی برای مقابله کلیه ویروسهایی مانند کرونا که انتقالشان از طریق بسته هوایی است:
۱- ماسک ان-۹۵ بزنید، کرونا از ماسکهای معمولی رد میشود. ۲- فیلتر هوای قوی هپا بگذارید. ۳- تا جایی که میتوانید از مردم حذر کنید. ۴- تغذیه خوب و سالم داشته باشید، مقادیر زیاد ویتامین C و D مصرف کنید. ۵- بسیار ورزش کنید. ۶- اگر توانستید حتما واکسن بزنید.
۱- ماسک ان-۹۵ بزنید، کرونا از ماسکهای معمولی رد میشود. ۲- فیلتر هوای قوی هپا بگذارید. ۳- تا جایی که میتوانید از مردم حذر کنید. ۴- تغذیه خوب و سالم داشته باشید، مقادیر زیاد ویتامین C و D مصرف کنید. ۵- بسیار ورزش کنید. ۶- اگر توانستید حتما واکسن بزنید.
Date: شنبه, ژوئیه 1, 2023 - 21:45
درباره نویسنده/هنرمند
Arash Moghaddam آرش مقدم مدرک کارشناسی کامپیوتر و تخصص تولید رسانه دیجیتال دارد و مدیریت تولید بیش ۹ رسانه تصویری، چاپی و اینترنتی را بعهده داشته است. |
ویراستار اول: آرش مقدم؛ ویراستار نهایی: پر ابراهیمی - ویراستاری موقت: عباس حسنلو
ویراستار اول: آرش مقدم؛ ویراستار نهایی: پر ابراهیمی - ویراستاری موقت: عباس حسنلو