Текст открытого письма призывающего приостановить разработку ИИ. Подписано Илоном Маском.
Это статья, является дополнением к новости, которую вы может прочитать по этой ссылке:
Ссылка на новость об опасении связанных с ИИ
Непосредственно текст открытого письма, переведенный на русский язык:
Кстати, переведено с помощью чат-бота Chat GPT
Системы искусственного интеллекта с интеллектом, сопоставимым с человеческим, могут представлять глубокие угрозы для общества и человечества, как показывают обширные исследования и признают ведущие лаборатории искусственного интеллекта. Как указано в широко поддерживаемых принципах Asilomar AI, развитие передовых систем искусственного интеллекта может стать глубоким изменением в истории жизни на Земле и должно быть спланировано и управляемо соответствующим образом, с необходимыми ресурсами и осторожностью. К сожалению, этот уровень планирования и управления не происходит, даже если последние месяцы показали, что лаборатории искусственного интеллекта замешаны в неконтролируемой гонке за разработкой и внедрением все более мощных цифровых умов, которые никто - даже их создатели - не могут понять, предсказать или надежно контролировать.
Современные системы искусственного интеллекта теперь становятся способными конкурировать с человеком в общих задачах, и мы должны задать себе вопрос: стоит ли позволять машинам затоплять наши информационные каналы пропагандой и ложью? Стоит ли автоматизировать все работы, включая те, которые приносят удовлетворение? Стоит ли развивать нечеловеческие разумы, которые в конечном итоге могут превосходить, умножаться, устаревать и заменять нас? Стоит ли рисковать потерей контроля над нашей цивилизацией? Эти решения не должны делегироваться невыбранным технологическим лидерам. Мощные системы искусственного интеллекта должны быть разработаны только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми. Эта уверенность должна быть хорошо обоснована и должна увеличиваться с увеличением потенциального воздействия системы. Недавнее заявление OpenAI относительно искусственного общего интеллекта гласит, что "в какой-то момент может быть важно получить независимый обзор перед началом обучения будущих систем, и для наиболее продвинутых усилий договориться о том, чтобы ограничить темп роста вычислительных мощностей, используемых для создания новых моделей". Мы согласны. Этот момент настал.
Поэтому мы призываем все лаборатории по искусственному интеллекту немедленно приостановить на период не менее 6 месяцев обучение систем искусственного интеллекта, более мощных, чем GPT-4. Эта пауза должна быть публичной и подтверждаемой и включать всех ключевых участников. Если такая пауза не может быть быстро введена в действие, правительства должны вмешаться и ввести мораторий.
Лаборатории по искусственному интеллекту и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для разработки и проектирования передовых систем искусственного интеллекта, которые будут строго проверяться и контролироваться независимыми внешними экспертами. Эти протоколы должны обеспечить безопасность систем, соответствующих им, за исключением разумных сомнений. Это не означает приостановку развития искусственного интеллекта в общем, а лишь отступление от опасной гонки к все более крупным непредсказуемым черным ящикам с возникающими возможностями.
Исследования и разработки в области искусственного интеллекта должны быть переориентированы на повышение точности, безопасности, интерпретируемости, прозрачности, устойчивости, выравнивания, доверительности и лояльности современных мощных систем последнего поколения.
Параллельно разработчики искусственного интеллекта должны работать с законодателями, чтобы драматически ускорить разработку надежных систем управления искусственным интеллектом. Эти системы должны включать, как минимум: новые и компетентные регулирующие органы, посвященные искусственному интеллекту; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших пулов вычислительных мощностей; системы прослеживаемости и водяных знаков, помогающие отличать реальное от синтетического и отслеживать утечки моделей; надежная экосистема аудита и сертификации; ответственность за ущерб, причиненный искусственным интеллектом; общественное финансирование исследований по технической безопасности искусственного интеллекта; а также хорошо обеспеченные институты для совладания с драматическими экономическими и политическими нарушениями (особенно в отношении демократии), которые вызовет искусственный интеллект.
Человечество может наслаждаться процветанием в будущем с помощью ИИ. Создав мощные системы искусственного интеллекта, мы можем наслаждаться «летом ИИ», в котором мы получаем награды, проектируем эти системы для явной пользы всем, и даем обществу шанс адаптироваться. Общество останавливало другие технологии с потенциально катастрофическими последствиями для общества. Мы можем сделать это здесь. Давайте наслаждаться долгим летом ИИ, не спеша и не готовясь к падению.