جفری هینتون، پیشگام هوش مصنوعی، که به خاطر کارهای انقلابی خود در زمینه یادگیری عمیق و تحقیقات شبکه های عصبی شهرت دارد، اخیراً نگر، های خود را در مورد پیشرفت های سریع در هوش مصنوعی و پیامدهای بالقوه آن ابراز کرده است.
هینتون با توجه به مشاهدات خود از مدلهای جدید زبان بزرگ مانند GPT-4، در مورد چندین مسئله کلیدی هشدار میدهد:
- ماشین هایی که از هوش انس، پیشی گرفته اندهینتون معتقد است که سیستمهای هوش مصنوعی مانند GPT-4 بسیار هوشمندتر از آنچه در ابتدا پیشبینی میشد، هستند و احتمالاً الگوریتمهای یادگیری بهتری نسبت به انسانها دارند.
- خطرات استفاده از چت ربات های هوش مصنوعی توسط “بازیگران بد”: هینتون خطرات استفاده از چت ربات های هوشمند برای انتشار اطلاعات نادرست، دستکاری رأی دهندگان و ایجاد ربات های هر،مه قدرتمند را برجسته می کند.
- قابلیت یادگیری چند شاتمدلهای هوش مصنوعی تنها با چند مثال میتوانند وظایف جدید را بیاموزند و ماشینها را قادر میسازند تا مهارتهای جدیدی را با سرعتی قابل مقایسه با انسانها یا حتی پیشیتر از آنها ،ب کنند.
- خطر وجودی ناشی از سیستم های هوش مصنوعیهینتون در مورد سناریوهایی هشدار می دهد که در آن سیستم های هوش مصنوعی اه، فرعی خود را ایجاد می کنند و برای قدرت بیشتر تلاش می کنند و از انباشت دانش و قابلیت های اشتراک گذاری انسان پیشی می گیرند.
- تاثیر بر بازار کار: هوش مصنوعی و اتوماسیون میتوانند مشاغل را در صنایع خاصی جابجا کنند و بخشهای تولید، کشاورزی و مراقبتهای بهداشتی بهویژه تحت تأثیر قرار گیرند.
در این مقاله، ما عمیقتر به نگر،های هینتون، ،وج او از گوگل برای تمرکز بر جنبههای اخلاقی و ایمنی توسعه هوش مصنوعی و اهمیت توسعه هوش مصنوعی مسئولانه در شکلدهی آینده روابط انسان و هوش مصنوعی میپردازیم.
،وج هینتون از گوگل و توسعه هوش مصنوعی اخلاقی
هینتون در پی رسیدگی به ملاحظات اخلاقی و ایمنی پیرامون هوش مصنوعی، تصمیم گرفت از سمت خود در گوگل کناره گیری کند.
این به او این امکان را میدهد که آزادانه نگر،های خود را بیان کند و در کارهای فلسفیتر بدون محدودیتهای منافع شرکتی شرکت کند.
هینتون در یک مصاحبه با بررسی فناوری MIT:
من میخواهم در مورد مسائل ایمنی هوش مصنوعی بدون نگر، درباره نحوه تعامل آن با تجارت Google صحبت کنم. تا زم، که گوگل به من پول می دهد، نمی توانم این کار را انجام دهم.»
،وج هینتون نشان دهنده تغییر در تمرکز او به سمت جنبه های اخلاقی و ایمنی هوش مصنوعی است. او قصد دارد به طور فعال در گفت،ای جاری در مورد توسعه و استقرار مسئول هوش مصنوعی شرکت کند.
هینتون با استفاده از تخصص و شهرت خود، قصد دارد در توسعه چارچوب ها و دستورالعمل هایی که به موضوعاتی مانند سوگیری، شفافیت، مسئولیت پذیری، حریم خصوصی و پایبندی به اصول اخلاقی می پردازد، کمک کند.
GPT-4 و بازیگران بد
در طول یک مصاحبه اخیرهینتون درباره احتمال پیشی گرفتن ماشینها از هوش انس، ابراز نگر، کرد. قابلیت های چشمگیر GPT-4که توسط OpenAI توسعه داده شد و در اوایل امسال منتشر شد، باعث شد هینتون باورهای قبلی خود را دوباره ارزیابی کند.
او معتقد است که مدلهای زب، مانند GPT-4 بسیار باهوشتر از آنچه در ابتدا پیشبینی میشد، هستند و احتمالاً الگوریتمهای یادگیری بهتری نسبت به انسانها دارند.
هینتون در این مصاحبه می گوید:
مغز ما 100 تریلیون اتصال دارد. مدل های زبان بزرگ تا نیم تریلیون، حدا،ر یک تریلیون دارند. با این حال GPT-4 صدها برابر بیشتر از هر شخص دیگری می داند. بنابراین شاید در واقع الگوریتم یادگیری بسیار بهتری از ما داشته باشد.»
نگر، های هینتون در درجه اول حول تفاوت های قابل توجه بین ماشین ها و انسان ها می چرخد. او معرفی مدلهای زب، بزرگ را به تهاجم بیگانگان تشبیه میکند و بر مهارتها و دانش زب، برتر آنها در مقایسه با هر فردی تأکید میکند.
هینتون در این مصاحبه می گوید:
«این چیزها با ما کاملاً متفاوت است. گاهی اوقات فکر میکنم انگار موجودات فضایی فرود آمدهاند و مردم متوجه نمیشوند چون ،یسی بسیار خوبی صحبت میکنند.»
هینتون در مورد خطراتی که چت رباتهای هوش مصنوعی باهوشتر از انسانها و موجودات هستند، هشدار میدهد مورد سوء استفاده «بازیگران بد»
او در این مصاحبه هشدار می دهد که این چت بات ها می توانند برای انتشار اطلاعات نادرست، دستکاری رای دهندگان و ایجاد ربات های هر،مه قدرتمند استفاده شوند.
«ببینید، اینجا یکی از راههایی است که ممکن است همه چیز به درستی پیش برود. ما می د،م که بسیاری از افرادی که می خواهند از این ابزارها استفاده کنند، بازیگران بدی مانند پوتین یا دیسانتیس هستند. آنها می خواهند از آنها برای پیروزی در جنگ ها یا دستکاری رأی دهندگان استفاده کنند.»
آموزش چند شات و برتری هوش مصنوعی
یکی دیگر از جنبه هایی که هینتون را نگران می کند، توانایی مدل های زبان بزرگ برای اجرا است یادگیری چند شات.
این مدلها را میتوان برای انجام کارهای جدید با چند مثال آموزش داد، حتی کارهایی که مستقیماً برای آنها آموزش ندیدهاند.
این قابلیت یادگیری چشمگیر باعث میشود سرعت ماشینها در ،ب مهارتهای جدید قابل مقایسه یا حتی از انسانها باشد.
هینتون در این مصاحبه می گوید:
“مردم[‘s ،ins] به نظر می رسید که نوعی جادو دارد. خوب، به محض اینکه یکی از این مدل های زبان بزرگ را انتخاب می کنید و آن را برای انجام کار جدیدی آموزش می دهید، از آن بحث خارج می شود. می تواند کارهای جدید را بسیار سریع یاد بگیرد.»
نگر، هینتون فراتر از تأثیر فوری بر بازارهای کار و صنایع است.
او را بالا می برد “خطر وجودی” وقتی سیستمهای هوش مصنوعی از انسانها باهوشتر میشوند، چه اتفاقی میافتد و در مورد سناریوهایی که سیستمهای هوش مصنوعی اه، فرعی خود را ایجاد میکنند و برای قدرت بیشتر تلاش میکنند، هشدار میدهد.
هینتون مثالی ارائه می دهد که چگونه سیستم های هوش مصنوعی در حال توسعه اه، فرعی می توانند اشتباه کنند:
“خوب، در اینجا یک هدف فرعی است که تقریباً همیشه در زیست شناسی کمک می کند: دریافت انرژی بیشتر. بنابراین اولین چیزی که ممکن است اتفاق بیفتد این است که این روباتها میگویند: «بیایید قدرت بیشتری دریافت کنیم. بیایید تمام برق را به تراشههایم تغییر مسیر دهیم.’ یکی دیگر از اه، فرعی بزرگ این است که کپی های بیشتری از خودتان بسازید. این صدا خوب است؟»
تاثیر هوش مصنوعی بر بازارهای کار و مق، با خطرات
هینتون به آن اشاره می کند تاثیر هوش مصنوعی بر مشاغل قابل توجه است نگران بودن.
هوش مصنوعی و اتوماسیون می توانند وظایف تکراری و پیش پا افتاده را به عهده بگیرند و باعث از دست دادن شغل شوند در برخی بخش ها.
تولید و کارمندان کارخانه ممکن است به شدت از اتوماسیون آسیب ببینند.
روباتها و ماشینهای مبتنی بر هوش مصنوعی در حال رشد هستند که ممکن است مشاغل پرخطر و تکراری انسان را تصاحب کنند.
اتوماسیون نیز در حال پیشرفت است کشاورزی، با کارهای خودکار مانند کاشت، برداشت و نظارت بر محصول.
که در مراقبت های بهداشتی، برخی از وظایف اداری را می توان خودکار کرد، اما نقش هایی که نیاز به تعامل انس، و شفقت دارند کمتر با هوش مصنوعی جایگزین می شوند.
به طور خلاصه
نگر، های هینتون در مورد پیشرفت های سریع در هوش مصنوعی و پیامدهای بالقوه آن بر نیاز به توسعه هوش مصنوعی مسئولانه تاکید دارد.
،وج او از گوگل نشان دهنده تعهد او به رسیدگی به ملاحظات ایمنی، ترویج گفتگوی باز و شکل دادن به آینده هوش مصنوعی به شیوه ای است که از رفاه بشریت محافظت می کند.
اگرچه دیگر در گوگل نیست، مشارکت ها و تخصص هینتون همچنان نقشی حیاتی در شکل دادن به حوزه هوش مصنوعی و هدایت توسعه اخلاقی آن ایفا می کند.
تصویر ویژه ایجاد شده توسط نویسنده با استفاده از Midjourney
منبع: https://www.searchenginejournal.com/top-5-ethical-concerns-raised-by-ai-pioneer-geoffrey-hinton/485829/