آیا ChatGPT یک “ویروس منتشر شده در طبیعت” است؟
خبر: در آن زمان، آلتمن پتانسیل OpenAI را به زبانی توصیف کرد که برای برخی ChatGPT عجیب به نظر می رسید. آلتمن گفت، برای مثال، فرصت با هوش عمومی مصنوعی – هوش ماشینی که میتواند مشکلات را به خوبی انسان حل کند – آنقدر بزرگ است که اگر OpenAI موفق به شکستن آن شود، این ابزار میتواند “شاید مخروط نوری تمام ارزشهای آینده را بگیرد. در جهان.” او گفت که این شرکت “مجبور است تحقیقاتی را منتشر نکند” زیرا بسیار قدرتمند است. آلتمن در پاسخ به این سوال که آیا OpenAI در ایجاد ترس مقصر است یا خیر – ماسک بارها همه سازمانهای توسعهدهنده هوش مصنوعی را تحت نظارت قرار داده است – آلتمن در مورد خطرات عدم فکر کردن به “پیامدهای اجتماعی” هنگامی که “شما در حال ساخت چیزی بر روی یک منحنی نمایی هستید” صحبت کرد.
حضار در نقاط مختلف گفتگو خندیدند و مطمئن نبودند که آلتمن را چقدر جدی بگیرند. با این حال، اکنون هیچ کس نمی خندد. در حالی که ماشینها هنوز به اندازه مردم هوشمند نیستند، فناوریای که OpenAI از آن زمان منتشر کرده است، بسیاری را شگفت زده میکند ( از جمله ماسک )، و برخی از منتقدان میترسند که ممکن است این کار ما را خنثی کند، بهویژه با فناوریهای پیچیدهتر که بنا به گزارشها به زودی عرضه میشود.
در واقع، اگرچه کاربران سنگین اصرار دارند که این مدل چندان باهوش نیست ، مدل ChatGPT که OpenAI هفته گذشته در دسترس عموم قرار داد، آنقدر قادر است که به سؤالات پاسخ دهد، مانند شخصی که متخصصان در طیف وسیعی از صنایع سعی در پردازش پیامدهای آن دارند. برای مثال، مربیان تعجب میکنند که چگونه میتوانند نوشتههای اصلی را از مقالاتی که بهطور الگوریتمی تولید شدهاند، متمایز کنند – و این میتواند از نرمافزار ضد سرقت ادبی فرار کند .
پل کدوسکی فی نفسه یک مربی نیست. او یک اقتصاددان، سرمایهدار مخاطرهآمیز و همکار MIT است که خود را «عادی ناامید با تمایل به فکر کردن در مورد خطرات و پیامدهای ناخواسته در سیستمهای پیچیده» میخواند. اما او از جمله کسانی است که به طور ناگهانی نگران آینده جمعی ما هستند و دیروز در توییتی نوشت : «[از] شرم بر OpenAI برای پرتاب این بمب هستهای جیبی بدون محدودیت در جامعهای ناآماده». Kedrosky نوشت: “بدیهی است که احساس می کنم ChatGPT (و مانند آن) باید فوراً لغو شود. و اگر دوباره معرفی شود، فقط با محدودیتهای شدید.»
ما دیروز با او در مورد برخی از نگرانیهایش صحبت کردیم، و اینکه چرا فکر میکند OpenAI چیزی را که به اعتقاد او «مشکلاتکنندهترین تغییری است که اقتصاد ایالات متحده در ۱۰۰ سال اخیر دیده است» را هدایت میکند و نه به روش خوبی.
چت ما برای طولانی بودن و وضوح ویرایش شده است.
TC: ChatGPT چهارشنبه گذشته منتشر شد. چه چیزی باعث واکنش شما در توییتر شد؟
PK: من در گذشته با این رابط های کاربری مکالمه و خدمات هوش مصنوعی بازی کرده ام و این بدیهی است که جهشی بزرگ فراتر از آن است. و آنچه مرا در اینجا به طور خاص آزار می دهد، بی رحمی گاه به گاه آن است، با عواقب عظیمی برای مجموعه ای از فعالیت های مختلف. این فقط موارد بدیهی نیست، مانند مقاله نویسی دبیرستان، بلکه تقریباً در هر حوزه ای که گرامر وجود دارد – [به معنای] روشی سازمان یافته برای بیان خود است. این می تواند مهندسی نرم افزار، مقالات دبیرستان، اسناد حقوقی باشد. همه آنها به راحتی توسط این جانور حریص خورده می شوند و دوباره به بیرون تف می ریزند بدون اینکه جبرانی برای هر چیزی که برای آموزش آن استفاده شده است.
از یکی از همکاران در UCLA شنیدم که به من گفت آنها نمی دانند که در پایان ترم فعلی با مقالات چه کار کنند، جایی که آنها در هر دوره صدها و هزاران در هر بخش دریافت می کنند، زیرا آنها دیگر نمی دانند چه چیزی جعلی است و چه چیزی چیست. نه بنابراین انجام این کار به طور معمول – همانطور که قبلاً امروز یکی به من گفت – یادآور هکر کلاه سفید به اصطلاح [اخلاقی] است که یک اشکال را در یک محصول پرمصرف پیدا می کند، سپس قبل از اینکه عموم مردم بدانند توسعه دهنده به توسعه دهنده اطلاع می دهد. می توانند محصول خود را وصله کنند و ما تخریب گسترده و شبکه های برق نداریم. این برعکس است، جایی که یک ویروس بدون نگرانی از عواقب آن در طبیعت منتشر شده است.
این احساس می کند که می تواند دنیا را بخورد.
برخی ممکن است بگویند، “خوب، آیا زمانی که اتوماسیون وارد کارخانه های خودروسازی شد و کارگران خودرو از کار بیکار شدند، همین احساس را داشتید؟ زیرا این یک نوع پدیده گسترده تر است. اما این بسیار متفاوت است. این فن آوری های یادگیری خاص خود کاتالیزور هستند. آنها از درخواست ها یاد می گیرند. بنابراین رباتها در یک کارخانه تولیدی، در حالی که اختلالات ایجاد میکنند و عواقب اقتصادی باورنکردنی برای افرادی که در آنجا کار میکنند ایجاد میکنند، پس از آن برنگردند و شروع به جذب هر چیزی که در داخل کارخانه میرود، در بخش به بخش حرکت میکنند، در حالی که این دقیقاً همان چیزی نیست که ما میتوانیم انتظار داشته باشیم. اما آنچه باید انتظار داشته باشید
او در سال 2019 گفت که ماسک تا حدی به دلیل اختلاف نظر در مورد توسعه شرکت OpenAI را ترک کرد و مدت طولانی است که از هوش مصنوعی به عنوان یک تهدید وجودی صحبت می کند. اما مردم به این نتیجه رسیدند که او نمی داند در مورد چه چیزی صحبت می کند . اکنون ما با این فناوری قدرتمند روبرو هستیم و مشخص نیست چه کسی برای رسیدگی به آن اقدام می کند.
من فکر میکنم در یک سری مکانها به طور همزمان شروع میشود، که اکثر آنها واقعاً ناشیانه به نظر میرسند، و مردم [سپس] تمسخر خواهند کرد زیرا این کاری است که فنآوران انجام میدهند. اما خیلی بد، زیرا ما با ایجاد چیزی با چنین پیامدهایی وارد این موضوع شده ایم. بنابراین، همانطور که FTC سالها پیش از افرادی که وبلاگها را اداره میکنند خواسته بود [به وضوح نشان دهند] پیوندهای وابسته دارند و از آنها کسب درآمد میکنند، فکر میکنم در سطحی بیاهمیت، مردم مجبور خواهند شد افشاگری کنند که «ما هیچکدام را ننوشتیم». از این. این همه ماشین تولید شده است. [یادداشت سردبیر: OpenAI میگوید که در حال کار روی راهی برای « واترمارک کردن » محتوای تولید شده توسط هوش مصنوعی، همراه با سایر «تکنیکهای منشأ» است.]
من همچنین فکر میکنم انرژی جدیدی را برای شکایت جاری علیه مایکروسافت و OpenAI در مورد نقض حق نسخهبرداری در زمینه الگوریتمهای یادگیری ماشینی در آموزش خود ببینیم . من فکر میکنم در اینجا با توجه به این سرویس، یک مشکل DMCA گستردهتر وجود خواهد داشت.
و من فکر میکنم که در نهایت با توجه به عواقب خدمات، احتمال یک شکایت [عظیم] و حل و فصل وجود دارد، که، میدانید، احتمالاً خیلی طول میکشد و به افراد کافی کمک نمیکند، اما نمیدانم چگونه این کار را انجام میدهیم. با توجه به این فناوریها در [این مکان] قرار میگیرید.
تفکر در MIT چیست؟
اندی مکآفی و گروهش آنجا در آنجا عاقلتر هستند و دیدگاه ارتدکستری دارند که هر زمان که شاهد اختلال باشیم، فرصتهای دیگری ایجاد میشود، مردم متحرک هستند، از مکانی به مکان دیگر و از شغلی به شغل دیگر میروند، و ما نباید این کار را انجام دهیم. آنقدر پنهان باشیم که فکر کنیم این تکامل خاص تکنولوژی همان تحولی است که نمی توانیم به اطراف آن جهش کنیم و مهاجرت کنیم. و من فکر می کنم که این به طور کلی درست است.
اما درس پنج سال اخیر به طور خاص این بوده است که این تغییرات ممکن است زمان زیادی ببرد. به عنوان مثال، تجارت آزاد یکی از آن تجربیات فوق العاده مخرب و در کل اقتصاد است، و همه ما به عنوان اقتصاددانی که به این موضوع نگاه می کنیم به خود گفتیم که اقتصاد سازگار خواهد شد و مردم به طور کلی از قیمت های پایین تر سود خواهند برد. چیزی که هیچ کس پیش بینی نمی کرد این بود که کسی همه مردم خشمگین را سازماندهی کند و دونالد ترامپ را انتخاب کند. بنابراین این ایده وجود دارد که ما می توانیم پیش بینی و پیش بینی کنیم که چه عواقبی خواهد داشت، اما [نمی توانیم].
شما در مورد مقاله نویسی دبیرستان و دانشگاه صحبت کردید. یکی از بچه های ما قبلاً پرسیده است – از نظر تئوری! – اگر استفاده از ChatGPT برای نوشتن مقاله سرقت ادبی است.
هدف از نوشتن یک مقاله اثبات این است که شما می توانید فکر کنید، بنابراین این روند را کوتاه می کند و هدف را شکست می دهد. باز هم از نظر عواقب و عوارض جانبی، اگر نمیتوانیم اجازه دهیم افراد تکالیف خود را انجام دهند، زیرا دیگر نمیدانیم که تقلب میکنند یا نه، به این معنی است که همه چیز باید در کلاس اتفاق بیفتد و باید تحت نظارت باشد. چیزی نیست که ما به خانه ببریم. کارهای بیشتری باید به صورت شفاهی انجام شود، و این به چه معناست؟ این بدان معناست که مدرسه بسیار گرانتر، بسیار حرفهایتر، بسیار کوچکتر شده است و دقیقاً در زمانی که ما تلاش میکنیم برعکس آن را انجام دهیم. عواقب آن برای آموزش عالی از نظر ارائه خدمات دیگر ویرانگر است.
نظر شما در مورد ایده درآمد پایه همگانی یا امکان مشارکت همه در دستاوردهای هوش مصنوعی چیست؟
من نسبت به قبل از کووید، طرفدار قوی تری هستم. دلیل آن این است که کووید، به یک معنا، آزمایشی با درآمد پایه جهانی بود. ما به مردم پول دادیم که در خانه بمانند، و آنها با QAnon آمدند. بنابراین من واقعاً نگران هستم که چه اتفاقی میافتد وقتی مردم مجبور نباشند سوار ماشین شوند، جایی رانندگی کنند، کاری را انجام دهند که از آن متنفرند و دوباره به خانه برگردند.
منبع: خبر علمی