5 نگرانی اخلاقی مطرح شده توسط پیشگام هوش مصنوعی جفری هینتون


جفری هینتون، پیشگام هوش مصنوعی، که به خاطر کارهای انقلابی خود در زمینه یادگیری عمیق و تحقیقات شبکه های عصبی شهرت دارد، اخیراً نگر، های خود را در مورد پیشرفت های سریع در هوش مصنوعی و پیامدهای بالقوه آن ابراز کرده است.

هینتون با توجه به مشاهدات خود از مدل‌های جدید زبان بزرگ مانند GPT-4، در مورد چندین مسئله کلیدی هشدار می‌دهد:

  1. ماشین هایی که از هوش انس، پیشی گرفته اندهینتون معتقد است که سیستم‌های هوش مصنوعی مانند GPT-4 بسیار هوشمندتر از آنچه در ابتدا پیش‌بینی می‌شد، هستند و احتمالاً الگوریتم‌های یادگیری بهتری نسبت به انسان‌ها دارند.
  2. خطرات استفاده از چت ربات های هوش مصنوعی توسط “بازیگران بد”: هینتون خطرات استفاده از چت ربات های هوشمند برای انتشار اطلاعات نادرست، دستکاری رأی دهندگان و ایجاد ربات های هر،مه قدرتمند را برجسته می کند.
  3. قابلیت یادگیری چند شاتمدل‌های هوش مصنوعی تنها با چند مثال می‌توانند وظایف جدید را بیاموزند و ماشین‌ها را قادر می‌سازند تا مهارت‌های جدیدی را با سرعتی قابل مقایسه با انسان‌ها یا حتی پیشی‌تر از آن‌ها ،ب کنند.
  4. خطر وجودی ناشی از سیستم های هوش مصنوعیهینتون در مورد سناریوهایی هشدار می دهد که در آن سیستم های هوش مصنوعی اه، فرعی خود را ایجاد می کنند و برای قدرت بیشتر تلاش می کنند و از انباشت دانش و قابلیت های اشتراک گذاری انسان پیشی می گیرند.
  5. تاثیر بر بازار کار: هوش مصنوعی و اتوماسیون می‌توانند مشاغل را در صنایع خاصی جابجا کنند و بخش‌های تولید، کشاورزی و مراقبت‌های بهداشتی به‌ویژه تحت تأثیر قرار گیرند.

در این مقاله، ما عمیق‌تر به نگر،‌های هینتون، ،وج او از گوگل برای تمرکز بر جنبه‌های اخلاقی و ایمنی توسعه هوش مصنوعی و اهمیت توسعه هوش مصنوعی مسئولانه در شکل‌دهی آینده روابط انسان و هوش مصنوعی می‌پردازیم.

،وج هینتون از گوگل و توسعه هوش مصنوعی اخلاقی

هینتون در پی رسیدگی به ملاحظات اخلاقی و ایمنی پیرامون هوش مصنوعی، تصمیم گرفت از سمت خود در گوگل کناره گیری کند.

این به او این امکان را می‌دهد که آزادانه نگر،‌های خود را بیان کند و در کارهای فلسفی‌تر بدون محدودیت‌های منافع شرکتی شرکت کند.

هینتون در یک مصاحبه با بررسی فناوری MIT:

من می‌خواهم در مورد مسائل ایمنی هوش مصنوعی بدون نگر، درباره نحوه تعامل آن با تجارت Google صحبت کنم. تا زم، که گوگل به من پول می دهد، نمی توانم این کار را انجام دهم.»

،وج هینتون نشان دهنده تغییر در تمرکز او به سمت جنبه های اخلاقی و ایمنی هوش مصنوعی است. او قصد دارد به طور فعال در گفت،ای جاری در مورد توسعه و استقرار مسئول هوش مصنوعی شرکت کند.

هینتون با استفاده از تخصص و شهرت خود، قصد دارد در توسعه چارچوب ها و دستورالعمل هایی که به موضوعاتی مانند سوگیری، شفافیت، مسئولیت پذیری، حریم خصوصی و پایبندی به اصول اخلاقی می پردازد، کمک کند.

GPT-4 و بازیگران بد

در طول یک مصاحبه اخیرهینتون درباره احتمال پیشی گرفتن ماشین‌ها از هوش انس، ابراز نگر، کرد. قابلیت های چشمگیر GPT-4که توسط OpenAI توسعه داده شد و در اوایل امسال منتشر شد، باعث شد هینتون باورهای قبلی خود را دوباره ارزیابی کند.

او معتقد است که مدل‌های زب، مانند GPT-4 بسیار باهوش‌تر از آنچه در ابتدا پیش‌بینی می‌شد، هستند و احتمالاً الگوریتم‌های یادگیری بهتری نسبت به انسان‌ها دارند.

هینتون در این مصاحبه می گوید:

مغز ما 100 تریلیون اتصال دارد. مدل های زبان بزرگ تا نیم تریلیون، حدا،ر یک تریلیون دارند. با این حال GPT-4 صدها برابر بیشتر از هر شخص دیگری می داند. بنابراین شاید در واقع الگوریتم یادگیری بسیار بهتری از ما داشته باشد.»

نگر، های هینتون در درجه اول حول تفاوت های قابل توجه بین ماشین ها و انسان ها می چرخد. او معرفی مدل‌های زب، بزرگ را به تهاجم بیگانگان تشبیه می‌کند و بر مهارت‌ها و دانش زب، برتر آنها در مقایسه با هر فردی تأکید می‌کند.

هینتون در این مصاحبه می گوید:

«این چیزها با ما کاملاً متفاوت است. گاهی اوقات فکر می‌کنم انگار موجودات فضایی فرود آمده‌اند و مردم متوجه نمی‌شوند چون ،یسی بسیار خوبی صحبت می‌کنند.»

هینتون در مورد خطراتی که چت ربات‌های هوش مصنوعی باهوش‌تر از انسان‌ها و موجودات هستند، هشدار می‌دهد مورد سوء استفاده «بازیگران بد»

او در این مصاحبه هشدار می دهد که این چت بات ها می توانند برای انتشار اطلاعات نادرست، دستکاری رای دهندگان و ایجاد ربات های هر،مه قدرتمند استفاده شوند.

«ببینید، اینجا یکی از راه‌هایی است که ممکن است همه چیز به درستی پیش برود. ما می د،م که بسیاری از افرادی که می خواهند از این ابزارها استفاده کنند، بازیگران بدی مانند پوتین یا دیسانتیس هستند. آنها می خواهند از آنها برای پیروزی در جنگ ها یا دستکاری رأی دهندگان استفاده کنند.»

آموزش چند شات و برتری هوش مصنوعی

یکی دیگر از جنبه هایی که هینتون را نگران می کند، توانایی مدل های زبان بزرگ برای اجرا است یادگیری چند شات.

این مدل‌ها را می‌توان برای انجام کارهای جدید با چند مثال آموزش داد، حتی کارهایی که مستقیماً برای آن‌ها آموزش ندیده‌اند.

این قابلیت یادگیری چشمگیر باعث می‌شود سرعت ماشین‌ها در ،ب مهارت‌های جدید قابل مقایسه یا حتی از انسان‌ها باشد.

هینتون در این مصاحبه می گوید:

“مردم[‘s ،ins] به نظر می رسید که نوعی جادو دارد. خوب، به محض اینکه یکی از این مدل های زبان بزرگ را انتخاب می کنید و آن را برای انجام کار جدیدی آموزش می دهید، از آن بحث خارج می شود. می تواند کارهای جدید را بسیار سریع یاد بگیرد.»

نگر، هینتون فراتر از تأثیر فوری بر بازارهای کار و صنایع است.

او را بالا می برد “خطر وجودی” وقتی سیستم‌های هوش مصنوعی از انسان‌ها باهوش‌تر می‌شوند، چه اتفاقی می‌افتد و در مورد سناریوهایی که سیستم‌های هوش مصنوعی اه، فرعی خود را ایجاد می‌کنند و برای قدرت بیشتر تلاش می‌کنند، هشدار می‌دهد.

هینتون مثالی ارائه می دهد که چگونه سیستم های هوش مصنوعی در حال توسعه اه، فرعی می توانند اشتباه کنند:

“خوب، در اینجا یک هدف فرعی است که تقریباً همیشه در زیست شناسی کمک می کند: دریافت انرژی بیشتر. بنابراین اولین چیزی که ممکن است اتفاق بیفتد این است که این روبات‌ها می‌گویند: «بیایید قدرت بیشتری دریافت کنیم. بیایید تمام برق را به تراشه‌هایم تغییر مسیر دهیم.’ یکی دیگر از اه، فرعی بزرگ این است که کپی های بیشتری از خودتان بسازید. این صدا خوب است؟»

تاثیر هوش مصنوعی بر بازارهای کار و مق، با خطرات

هینتون به آن اشاره می کند تاثیر هوش مصنوعی بر مشاغل قابل توجه است نگران بودن.

هوش مصنوعی و اتوماسیون می توانند وظایف تکراری و پیش پا افتاده را به عهده بگیرند و باعث از دست دادن شغل شوند در برخی بخش ها.

تولید و کارمندان کارخانه ممکن است به شدت از اتوماسیون آسیب ببینند.

روبات‌ها و ماشین‌های مبتنی بر هوش مصنوعی در حال رشد هستند که ممکن است مشاغل پرخطر و تکراری انسان را تصاحب کنند.

اتوماسیون نیز در حال پیشرفت است کشاورزی، با کارهای خودکار مانند کاشت، برداشت و نظارت بر محصول.

که در مراقبت های بهداشتی، برخی از وظایف اداری را می توان خودکار کرد، اما نقش هایی که نیاز به تعامل انس، و شفقت دارند کمتر با هوش مصنوعی جایگزین می شوند.

به طور خلاصه

نگر، های هینتون در مورد پیشرفت های سریع در هوش مصنوعی و پیامدهای بالقوه آن بر نیاز به توسعه هوش مصنوعی مسئولانه تاکید دارد.

،وج او از گوگل نشان دهنده تعهد او به رسیدگی به ملاحظات ایمنی، ترویج گفتگوی باز و شکل دادن به آینده هوش مصنوعی به شیوه ای است که از رفاه بشریت محافظت می کند.

اگرچه دیگر در گوگل نیست، مشارکت ها و تخصص هینتون همچنان نقشی حیاتی در شکل دادن به حوزه هوش مصنوعی و هدایت توسعه اخلاقی آن ایفا می کند.


تصویر ویژه ایجاد شده توسط نویسنده با استفاده از Midjourney




منبع: https://www.searchenginejournal.com/top-5-ethical-concerns-raised-by-ai-pioneer-geoffrey-hinton/485829/