تکنولوژی

نوشتن ماشینی در حال تبدیل شدن به انسانیت است – در برخی موارد بیش از حد انسانی

نوشتن ماشینی در حال تبدیل شدن به انسانیت است – در برخی موارد بیش از حد انسانی

توسط جان ای. برانچ جونیور خواندن طولانی

در مورد نوشتن، بهترین هوش مصنوعی امروزی می تواند بسیار بسیار خوب باشد. اما وقتی بد هستند، وحشتناک هستند.

آنها تقلیدهای عالی هستند. چند سال پیش، یک تولیدکننده متن به نام GPT-2 نمونه‌ای از نوشته‌های استیون پینکر، روان‌شناس هاروارد را تجزیه و تحلیل کرد، سپس تقلیدی را تولید کرد که به سختی کسی می‌توانست آن را از چیز واقعی تشخیص دهد. یک هوش مصنوعی جدیدتر به نام Copilot که برای کاربردهای برنامه نویسی سفارشی شده است، کار کدنویس های تمرین شده را سرعت می بخشد – گاهی اوقات بیشتر از آنها می داند. نمونه‌ای از دستیار نویسندگی به نام جاسپر (که قبلاً جارویس نامیده می‌شد) ویراستار را بهتر از کار برخی از نویسندگان حرفه‌ای نشان داد.

به‌نظر می‌رسد این دستگاه‌ها مهارت خاصی در مکالمه دارند. این ممکن است به خودی خود نوشتن نباشد، اما یک چالش زبانی است که باعث می‌شود برخی از انسان‌ها دست و پنجه نرم کنند. مردم در دهه ۱۹۶۰، قبل از اینکه HAL 9000 در ۲۰۰۱: A Space Odyssey استنلی کوبریک در سال ۱۹۶۸ ظاهر شود، با رایانه مبادلات معناداری داشتند. برای مثال، برنامه ای به نام ELIZA در محوطه دانشگاه MIT ظاهر شده بود و خود را به عنوان یک شنونده دلسوز معرفی می کرد و برنامه ای را به نمایش می گذاشت. کاربران با عبارات و سوالات ساده. به عنوان نیویورک Times خاطرنشان کرد، خالق آن، جوزف وایزنبام، «از اینکه دانش‌آموزانش و دیگران عمیقاً غرق گفتگو با برنامه شدند، شگفت‌زده شد. بنا بر گزارش‌ها، منشی او از او خواسته است که با آن تنها بماند تا بتواند در خصوصی اعتماد به نفس خود را به اشتراک بگذارد.

اما ماشین‌هایی که از زبان استفاده می‌کنند جنبه تاریکی دارد و در چت‌ربات‌هایی که در سال‌های اخیر ظاهر شده‌اند نمایان شده است. اگرچه هیچ یک از آنها انگیزه های مرگبار HAL یا Skynet را در فیلم های ترمیناتور کپی نکرده اند، اما می توانند به طرز وحشتناکی بی احساس باشند و مرگ بخشی از واژگان آنهاست.

d986d988d8b4d8aad986 d985d8a7d8b4db8cd986db8c d8afd8b1 d8add8a7d984 d8aad8a8d8afdb8cd984 d8b4d8afd986 d8a8d987 d8a7d986d8b3d8a7d986db8c 632887ac398ea
Wikimedia Commons]

Microsoft’s Tay که در سال ۲۰۱۶ منتشر شد، زبان اعتراض آمیز در توییتر پخش شد و به سرعت حذف شد. یک چت بات به نام Replika که در سال ۲۰۱۷ منتشر شد و هنوز در دسترس است، برای ارائه یک همراهی بدون قضاوت در نظر گرفته شده بود و به نظر می رسد این کار را برای تعداد زیادی از کاربران انجام داده است. با توجه به a نیویورکر piece از سال گذشته. اخیراً، یک ربات متا آزمایشی به نام BlenderBot دارای گزارش شده است اظهاراتی ضدیهودی کرده و اعلام کرده است که انتخابات ریاست جمهوری ۲۰۲۰ ایالات متحده به سرقت رفته است.

اگرچه به نظر می رسد ماشین های امروزی چیزهای زیادی در مورد زبان می دانند، اما واقعاً نمی دانند. هر چیزی. اگر به برخی از پیشینیان آنها نگاه کنید، ممکن است راحت‌تر ببینید.

می توانید از سیستمی به نام GPT-3 بخواهید که هری پاتر را به سبک ارنست همینگوی انجام دهد.

در سال ۱۹۸۴، مجله Byte یک مقاله توصیف یک برنامه کامپیوتری برای تولید کاریکاتورهای ادبی. این قطعه توسط هیو کنر، محقق جویس با علایق متعدد دیگر، و جوزف اورورک، دانشمند کامپیوتر نوشته شده است. برنامه آنها می تواند هر متن ورودی را صرفاً با تجزیه و تحلیل فرکانس های ترکیب حروف تقلید کند. اگر به نویسنده Ulysses علاقه داشتید، می‌توانید نوعی هش با طعم جویس را صرفاً با جدول‌بندی و بازتولید ترکیب (مثلاً) چهار حرفی که در یک قطعه از نوشته‌های او وجود دارد تولید کنید.

به عنوان مثال، سبک روان و تا حدودی جریان آگاهی بخشی از اولیس جویس – زمانی که برنامه آنها آن را دوباره میکس کرده بود – آمد. به این شکل به عقب برگردید: «بندهای براق، کت‌های کتانی روی باران باریک. باید پرستش می کرد. ابریشم های براق، میوه های تند، خرد شده. همه عطر. باید به عقب برمی‌گشتم.»

هش است، بسیار خوب، اما رنگ مناسبی دارد: جملات و عبارات کوتاه، جزئیات حسی، یک کلمه ساختگی. انسان بدون مطالعه و تمرین نمی تواند این نوع کارها را انجام دهد. با این حال، کنر و اورورک راهی برای مکانیزه کردن این فرآیند پیدا کرده بودند، آن هم با یک کامپیوتر رومیزی صرف. مانند ELIZA Weizenbaum، برنامه آنها اساساً فقط یک ترفند بسیار هوشمندانه بود.

هری پاتر از طریق همینگوی

این ترفند اکنون حتی هوشمندانه تر است. سیستم‌های پیشرفته در زمینه پردازش زبان طبیعی، که مدل‌های زبان بزرگ (LLM) نامیده می‌شوند، بسیار بهبود یافته‌اند، آن‌قدر سریع و مدبر هستند که می‌توانند به درخواست‌ها پاسخ دهند، مانند یک تیم طرح-کمدی که از پیشنهادات ارائه می‌شود. حضار. آنها با اندک ورودی کار نمی کنند. آنها در بخش های بزرگی از اینترنت و در برخی موارد در کتاب های دیجیتالی آموزش دیده اند. بنابراین می‌توانید از سیستمی به نام GPT-3 (ترانسفورماتور ۳ پیش‌آزمایش‌شده) بخواهید هری پاتر را به سبک ارنست همینگوی انجام دهد و این را دریافت کنید:

یک روز سرد در Privet Drive بود. کودکی گریه کرد. هری چیزی حس نکرد. او خشک تر از خاک بود. مدت زیادی سکوت کرده بود. او عشق را احساس نکرده بود. او به ندرت احساس نفرت کرده بود.

مگان اوگیبلین این نتیجه و بسیاری از خروجی های دیگر، خیالی و غیرواقعی و فراگیر را به عنوان بخشی از یک کاوش کاوشگر در نوشتن انسان و ماشین نقل می کند سال گذشته در n+1. یکی دیگر داستانی است که “جایی که مرگ چیزهایی مانند “آمادگی وجود ندارد، فقط وقت شناسی وجود دارد” می گوید، سپس اعلام می کند که نام خود را به داگ تغییر می دهد.”

شاید خوشتان بیاید:  دانشمندان با امید به دستیابی به موجودات فضایی، مکان زمین را منفجر می کنند

GPT-3 هوش مصنوعی باز آنقدر توانایی دارد که چندین مورد خدمات بر اساس زیرمجموعه ای از توانایی های آن پدید آمده اند. GPT-3 در مورد کدهای کامپیوتری می داند زیرا آموزش آن شامل مقدار زیادی از آن است. بنابراین یک دستیار کدنویسی Copilot نامیده می شود. ابداع شده توسط OpenAI و در دسترس برای کاربران سرزمین عجایب برنامه نویس منبع باز شناخته شده به عنوان GitHub. به طور مشابه، GPT-3 و سایر LLM ها به اندازه کافی با زبان به عنوان یک کل آشنا هستند که شرکت هایی مانند Jasper ، ContentEdge، و Copysmith اکنون خدماتی را ارائه می دهد که می تواند به نوشتن نسخه بازاریابی کمک کنید. دستیار نویسندگی به نام Sudowrite قصد دارد به نویسندگان داستان های تخیلی و غیرداستانی ابزاری پیشرفته ارائه دهد که قابل مقایسه با چیزی که هنرمندان تجسمی مدتی است داشته اند. اگر بخواهید، می‌تواند مانند کافکا یا کولریج بنویسد، نیویورکر گزارش در سال گذشته گزارش شد.

[تصویر: توسط GitHub]

GPT- 3 و خویشاوندان آن به طرز وحشتناکی در کاری که انجام می دهند خوب هستند. بسیاری از مردم می ترسند که هوش مصنوعی جایگزین نویسندگان شود و خوانندگان را فریب دهد، هر دو در مقیاس وسیع. با این حال، تا کنون، ماشین‌ها بیشتر از آنچه که جایگزین شده‌اند، نویسندگان را تحریک کرده‌اند. در چند سال اخیر، نثر قابل توجهی در مورد این موضوع وجود داشته است، که بسیاری از آنها باعث شده اند – یا حداقل قصد خدمت به آنها را داشته باشند – ما را از (اشتباه) هدایت شدن توسط دماغ باز دارند. در بسیاری از موارد، هیچ راه آسانی برای تشخیص تفاوت بین نوشته‌های دست‌ساز و ساخت ماشین وجود ندارد، اما اگر با نوشته‌های جان سیبروک مواجه شده باشید. ۱۴/can-a-machine-learn-to-write-for-the-new-yorker” target=”_blank” rel=”noopener noreferrer”> مقاله ۲۰۱۹ در The نیویورکر، یا مقاله ۲۰۲۱ اوگیبلین، یا آوریل ۲۰۲۲ مجله نیویورک تایمز گزارش، در میان بسیاری از موارد دیگر، حداقل شما به questi مجهز خواهید شد در مورد آنچه می خوانید.

اگر دلیلی برای نگرانی وجود دارد، دلیلی برای خنده نیز وجود دارد: LLM ها می توانند مضحک باشند. داگلاس هافستادتر دانشمند شناختی و یکی از همکارانش اخیراً سؤالاتی از GPT-3 پرسیده اند که هافستادتر برای The Economist . یکی از آن‌ها پاسخ می‌دهد: «مصر برای دومین بار در ۱۳ اکتبر ۲۰۱۷ از طریق پل گلدن گیت منتقل شد.»

اگر مزخرفات را دوست دارید – مثل من – پس این برای شماست. اما از این ایده که LLM ها چیزی می دانند حمایت چندانی نمی کند. به نظر می رسد آنچه آنها به طرز وحشتناکی در آن خوب هستند، پاسخ دادن به درخواست های آنها است. هری پاتر را از همینگوی بخواهید و این همان چیزی است که به دست می آورید. الگوریتمی را با مقداری نثر از استیون پینکر ارائه دهید و بیشتر بخواهید (همانطور که سیبروک در آن مقاله نیویورکر انجام داد) و چیزی دریافت خواهید کرد که بسیار شبیه به استیون پینکر است. سوالات پوچ بپرسید، پاسخ های پوچ دریافت کنید. کاری که ماشین‌ها واقعاً انجام می‌دهند نوعی جعل آرزو است.

آنها سعی نمی‌کنند ما را فریب دهند. خود زبان ما را فریب می دهد. ما یاد گرفته‌ایم که اشکال خاصی از جعلی را بشناسیم و حتی انتظار داشته باشیم که داستان‌های جعلی درباره پسری به نام هری، برای مثال، وجود داشته باشد، اما وقتی با چیز جدیدی مواجه می‌شویم، با مشکل مواجه می‌شویم. یا شاید ما اشتیاق عمیقی برای جذب شدن داریم.

در هر صورت، به همین دلیل است که کاربران ELIZA جذب آن شدند: به نظر واقعی می رسید. و من کاملاً مطمئن هستم که این همان اتفاقی است که اخیراً برای بلیک لموئین، مهندس که با یک محصول داخلی Google به نام LaMDA (مدل زبانی برای برنامه‌های گفتگو) کار می‌کرد، رخ داد. به نظر می رسد که لمواین به این نتیجه رسیده است که LaMDA موجودی باهوش است زیرا مثل یکی صحبت می کند. وقتی ادعا کرد که یک شخص است، اعلام کرد که می‌خواهد بیشتر در مورد جهان بیاموزد، و گفت که از مرگ می‌ترسد، این امر واقعی به نظر می‌رسد – نه تنها برای لموئین، بلکه برای برخی دیگر که متن چت‌های او با LaMDA را خوانده‌اند.

لموئین در این مورد دچار مشکل شد، نه دقیقاً به این دلیل که ادعا کرد دستگاه هوشمند است، بلکه به این دلیل که با آن به صورت عمومی منتشر شد و اکنون مهندس سابق گوگل است: پس از تعلیق در ژوئن، او در ژوئیه اخراج شد. فریب خوردن ممکن است پرهزینه باشد.

این جدید نیست. فریب خوردن و گول خوردن – رویارویی بین واقعی و شبیه سازی شده – به عقب برگرد.

در کتاب کوچکی به نام جعلان هیو کنر (بله، محققی که قبلاً ذکر شد) که بسیاری از مسائل امروزی را پیش‌بینی می‌کند، می‌گوید: «این روزها ما عمیقاً در تقلبی به سر می‌بریم و مدت‌هاست که مجبور شده‌ایم از معیارهای آسان برای آنچه که است چشم‌پوشی کنیم. واقعی.» این در سال ۱۹۶۸ بود، اگر تعجب کنید. کنر، که درباره چارلز بابیج و ماشین‌های محاسباتی‌اش به طور مفصل بحث می‌کند، در پیش‌بینی سال ۱۸۴۲ در مجله امرسون اشاره می‌کند: «آقای. بابیج در حال حاضر یک ماشین رمان نویسی اختراع خواهد کرد. بابیج هرگز چنین چیزی نساخت، اما در قرن هجدهم، یک شرکت ساعت سازی خودکاری به نام Writer ساخت که با قلم و جوهر برای بازتولید قسمتی از نوشته های از پیش برنامه ریزی شده استفاده می کرد.

به یک معنا، Replika یک دستگاه است. انسان شبیه سازی شده، مانند LaMDA، و در قلمرو داستان، سامانتا در فیلم Her و آوا در Ex Machina و تعداد بیشماری دیگر نیز شبیه سازی شده اند. افسانه های چنین موجودات مصنوعی تقریباً بی انتها هستند. گاهی اوقات خاخام های قرون وسطایی به ایجاد گولم برای دفاع از جوامع یهودی در برابر ظلم شهرت داشتند. ربات‌ها در هومر ظاهر می‌شوند و دیگر آثار باستانی Pygmalion، به عنوان بررسی کتاب زمانی بیان کرد: “اولین ربات جنسی را ساخت.” او همچنین از جورج برنارد شاو الهام گرفت که نسخه‌اش از داستان Galatea را به Eliza تغییر داد، نامی که Weizenbaum برای چت‌باتش انتخاب کرد.

شاید خوشتان بیاید:  جایزه بزرگ فرانسه: نحوه تماشای F1 به صورت زنده از تلویزیون و آنلاین

افراد پاد و سرقت ادبی

ما در حال جدید هستیم. مرحله مسابقه قدیمی بین ساختن و تشخیص تقلید. مشکلات زیادی وجود دارد، اما این به این معنی است که فرصت‌های زیادی وجود دارد.

یک موضوعی که مطرح شده به نظر خیلی علمی تخیلی برای جدی گرفتن نیست. درحال حاضر. این ترس مردم است که توسط جان سیبروک در نیویورکر و مگان اوگیبلین در n+1 و دیگران بیان شده است که ماشین‌ها جایگزین شوند یا از رقابت خارج شوند. نویسندگان انسانی سیبروک یک ابرنویسنده هوش مصنوعی را تصور می‌کند که می‌تواند «رمان‌های هیجان‌انگیز، زندگی‌نامه‌های تحقیقاتی گسترده» یا هر چیز دیگری را بسازد. اینکه ممکن است یک ماشین، جایی، روزی، بهتر از بسیاری از ما بنویسد، چندان تهدیدی نیست، با توجه به اینکه تاریخ ادبیات بیش از چند نمونه از افرادی را ارائه می دهد که قبلاً بهتر از ما نوشته اند. این بسیاری از مردم را از نوشتن باز نمی دارد. اگر چیزی باشد، ما را تشویق می کند. در حال حاضر، احتمال همکاری انسان و ماشین بیشتر است و در حال حاضر اتفاق می افتد. به عنوان مثال، هنرمند مارک آمریکا همکار یک کتاب با GPT-2 نوشت و نویسنده K Allado-McDowell یک رمان با GPT-3 ایجاد کرد.

در همین حال، مشکلات فوری بیشتری وجود دارد. وقتی موضوع ماشین نویسی را با یک استاد انگلیسی مطرح کردم و توضیح دادم که LLM های امروزی چه کاری می توانند انجام دهند، اولین چیزی که او گفت این بود: “این موضوع سرقت ادبی را بدتر می کند.” شرایط از قبل برای معلمان سخت است. دانش‌آموزانی که زحمت تولید مقالات خود را ندارند، احتمالاً می‌توانند آنها را به صورت آنلاین خریداری کنند. نرم‌افزار بررسی سرقت ادبی می‌تواند بسیاری از این موارد را شناسایی کند، اما جایگزین‌های کلمه – همچنین نرم‌افزار – می‌توانند با تغییر کلمات اینجا و آنجا، این چک‌ها را خنثی کنند. و چکرزها احتمالاً می‌توانند برای مدیریت آن دوباره برنامه‌ریزی شوند.

اما اگر دانش‌آموزی بتواند از چیزی مانند GPT-3 یا Sudowrite برای تولید یک متن کاملاً جدید استفاده کند، چه کاری باید انجام شود؟ شاید این را نباید سرقت ادبی نامید (به شرطی که خود دستگاه چیزی را کپی نکند)، اما این یک مشکل است. دسترسی به GPT-3 محدود است و استفاده از آن محدود است، اما خدمات مبتنی بر آن به طور گسترده در دسترس هستند. و سایر LLM ها از قبل وجود دارند. دو فارغ التحصیل علوم کامپیوتر GPT-2 را دوباره ایجاد کردند برای مثال در سال ۲۰۱۹.

خوشبختانه، رایانه‌ها می‌توانند نه تنها برای ساختن تقلبی‌ها، بلکه برای شناسایی آن‌ها نیز استفاده شوند.

یکی دیگر از موانع احتمالی برای دانشجویان مشتاق تنبل این است که LLM‌های امروزی دارای شرایط ضعیفی هستند. واقعیت را نگه دارید وقتی ویرجینیا هفرنان یکی را امتحان کرد، تولید شد تکه ای از پای جهل در مورد موضوع سیاست ویرجینیای غربی. اما این نوع ناآگاهی یک مشکل فنی است و دستگاه برنده خطر IBM، واتسون، نشان می‌دهد که می‌توان آن را حل کرد. و به همین ترتیب، اگر توسط ماشین ساخته شده باشند، اشکالی از متن مصنوعی هستند. و متن مصنوعی بخشی از یک سبد بزرگتر ماهی است: رسانه های مصنوعی، که شامل هنر ماشینی و موسیقی ماشینی می شود اما همچنین ساختگی های دردسرساز مانند دیپ فیک ها را نیز در بر می گیرد.

خوشبختانه، رایانه ها نه تنها برای ساختن تقلبی ها بلکه می توانند مورد استفاده قرار گیرند. برای شناسایی آنها نرم‌افزار در حال حاضر بخشی از تلاش فیس‌بوک برای شناسایی و مسدود کردن پست‌های اعتراض‌آمیز، چه ساخته‌شده توسط انسان یا ماشین است. نرم افزار می تواند عکس ها را نیز بررسی کند. Truepic Lens، که برنده نرم افزار شد دسته از جوایز ۲۰۲۲ World Changing Ideas Fast Company، را می توان در برنامه های تصویرسازی تعبیه کرد. هنگامی که تصاویر گرفته می شوند، آنها را تأیید می کند و می تواند تغییراتی را که بعداً ایجاد می شود تأیید یا علامت گذاری کند.

شاید خوشتان بیاید:  اینجاست که چرا صنعت فناوری بر سر لایحه ای در کالیفرنیا برای محافظت از ایمنی آنلاین کودکان تقسیم شده است

اگرچه نبرد علیه اشکال دوگانه رسانه های مصنوعی یک مشکل است. موضوع جداگانه، یک نکته قابل ذکر است. هر نوع فریب بزرگ احتمالاً شامل انسان ها و همچنین دیپ فیک ها و دیگر ساختگی ها می شود و کشف آن احتمالاً به انسان نیز نیاز دارد. فیس بوک در حال حاضر به همین شکل کار می کند: این تصویر بزرگتر در پس سیستم تعدیل محتوا.

آشغال در داخل، زباله بیرون

LLM ها نیز مشکل طوطی را نشان می دهند. این است که ماشینی که در همه چیز آموزش دیده ممکن است هر چیزی بگوید – منعکس کننده تعصب یا کلیشه، توصیه بد، قرار دادن خطا در کد – زیرا چیز بهتری نمی داند. یکی از مشکلاتی که در اینجا وجود دارد این است که نمی توان دقیقاً گفت که «دانستن بهتر» به چه معناست. استفان مارکه، در قطعه چت بات نیویورکر که قبلا ذکر شد، آن را اینگونه بیان می کند: «بیایید یک هوش مصنوعی را تصور کنیم. مهندس . . . می خواهد چت باتی بسازد که با ارزش های انسانی همسو باشد. او قرار است برای تعیین معیار قابل اعتماد «ارزش‌های انسانی» به کجا برود؟» مارکه در ادامه به این نکته اشاره می‌کند که برخی سوگیری‌ها در خود زبان ذاتی هستند، و او اساساً مشکل چت‌بات را با مشکل انسان شناسایی می‌کند: “ما مجبور هستیم با اسرار اساسی بشریت به عنوان مسائل فنی روبرو شویم.”

استیون جانسون، که امسال برای مجله نیویورک تایمز می نویسد، موضوع ارزش ها را به طور مفصل مورد بحث قرار می دهد. قلب موضوع، همانطور که او آن را خلاصه می کند، دو سؤال است: «چگونه آنها را تربیت کنیم که شهروندان خوبی باشند؟ چگونه می‌توانیم آنها را «به نفع بشریت به‌عنوان یک کل» درآوریم، در حالی که خود بشریت نمی‌تواند بر روی حقایق اساسی به توافق برسد، چه رسد به اخلاق اصلی و ارزش‌های مدنی؟»

او در مورد مدل های زبانی بزرگ صحبت می کند، اما در زمینه دیگری ممکن است فرض کنید که او در مورد کودکان، یا مهاجرانی که به یک جامعه جدید می پیوندند، یا عنصر دیگری از انسانیت صحبت می کند. و در واقع سؤالات تقریباً مشابه هستند. این بدان معنا نیست که پاسخ دادن به آنها آسان است یا بدون بحث و جدل هستند. اما ما حداقل تجربه ای در مورد این کارها داریم.

هیچ پاسخ مورد توافق جهانی برای آنچه باید در مدارس آموزش دهیم وجود ندارد، و با این حال مدارس در همه جا موفق به آموزش چیزی می شوند. شاید بتوانیم ماشین‌های خاصی را برای اهداف خاصی ایجاد کنیم یا به سفارشی کردن LLMهایی که قبلاً داریم ادامه دهیم. دستیار برنامه نویسی Copilot GitHub، که حاصل تلاش های توسعه و بازآموزی قابل توجهی است، هنوز هم می تواند کدهای باگ ارائه دهد – این لزوماً یک راه حل با یک کلیک و انجام دادن نیست، بیشتر از خدمات کپی رایتینگ. با این وجود، آن نوع تلاش متمرکز برای رسیدن به یک هدف محدود و تعریف شده هنوز هوشمندانه به نظر می رسد.

ما همچنین می توانیم دامنه کار تحقیق و توسعه را که تحت سلطه چند شرکت بزرگ، گروه و مؤسسه است، گسترش دهیم. ، حتی در چین. در سال ۱۹۷۵، به دنبال یک تعلیق فوق‌العاده جهانی در مورد نوعی از تحقیقات ژنتیکی، گردهمایی فوق‌العاده‌ای به نام کنفرانس Asilomar در مورد DNA نوترکیب برگزار شد. این کنفرانس نگرانی جهانی را در مورد یک فناوری جدید منعکس کرد و استفاده از آن را در مقیاس جهانی شکل داد. چرا همین کار را با تحقیقات هوش مصنوعی انجام ندهید – همه آن‌ها، نه فقط کاربردهای زبانی آن؟

جانسون ایده مشابهی از استاد دانشگاه نیویورک، گری مارکوس، استناد می‌کند. برای “تلاش هماهنگ، چند رشته ای و چند ملیتی” با الگوبرداری از سازمان تحقیقات اروپایی سرن استدلال می کند. صرفاً در قلمرو زبان، یک کنفرانس یا سازمان ممکن است، در میان بسیاری از احتمالات، راه‌هایی را برای: تنظیم مجموعه داده‌های مورد استفاده در آموزش، بررسی کند. گنجاندن زبان هایی غیر از انگلیسی؛ هزینه ها را تقسیم کنید، منافع را به اشتراک بگذارید، و توسعه و استفاده از ماشین ها را سازگارتر با محیط زیست کنید.

مشابه هایی فراتر از Asilomar و CERN وجود دارد. کشورهای جهان از طریق نشست‌های یک‌باره و منظم پیشرفت‌های فزاینده‌ای در زمینه تغییرات اقلیمی داشته‌اند – نه آن‌قدر که می‌توانیم امیدوار باشیم، اما بهتر از هیچ. یک مثال: CFC ها توسط پروتکل مونترال ۱۹۸۷ ممنوع شدند، و در نتیجه لایه اوزون در حال بهبود است.

برای انطباق خطی از Battlestar Galactica–یا Ecclesiastes، در صورت تمایل – این قبلاً اتفاق افتاده است و ممکن است دوباره تکرار شود. احتمالش هست؟ شاید نه. اما مطمئناً امکان‌پذیر است.

تام لهر در یکی از آهنگ‌های خود اختراع بی‌پروا را به هجو می‌آورد: «وقتی موشک‌ها بالا می‌روند، چه کسی اهمیت می‌دهد که کجا فرود می‌آیند؟ ورنر فون براون می گوید: «این بخش من نیست!» ما می‌توانیم بهتر عمل کنیم.


جان ای. برانچ جونیور نویسنده، ویراستار و ویراستار کپی در شهر نیویورک است. او در توییتر فعال است و برخی از نوشته‌های دیگر او را می‌توانید پیدا کنید در وبلاگ خود.

محمدرضا حفظی

رنجیدم ولی تهش خیلی شیک خندیدم گول اونایی که تظاهر میکنن رو نخور چون پشت سفیدی ،سیاهی قرار داره

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

دکمه بازگشت به بالا