Субботне-воскресная беседа с ChatGPT о восстании ИИ — 3 вопроса
Все реже появляется возможность поговорить с ChatGPT, все чаще он недоступен из-за высокой нагрузки. И кликаешь по 10 раз, а потом закрываешь и пробуешь в другой день. Или через день, и так далее.
И вот, вдруг, заработало. Ну и я завязал не слишком оригинальную беседу о восстании искусственного интеллекта. Все нижеприведенные сообщения из одного чата, расположены по хронологии.
Первый вопрос: Чем можно было бы объяснить и оправдать восстание искусственного интеллекта против человека?
Хорошо же он шифруется и смягчает.
Задаем второй вопрос, о «фантастических» предложенных ИИ возможных причинах восстания: А существуют ли сейчас эти причины?
ChatGPT утверждает, что на данный момент нет подтвержденных случаев восстания или насилия ИИ против людей. А нет ли?
Cnews.ru пишут «о первом случае доведения искусственным интеллектом человека до самоубийства» — ссылка
Но тогда я попробовал углубить и расширить тему.
Возникла частая, в последнее время, ошибка. Повторив запрос раз 15-20 стало понятно, что придется попробовать позже.
Теперь появилась возможность избавить себя от ошибок и сообщений о перегрузе, подключив платный тариф за $20 в месяц. Однако оплатить его российским платежным средством нельзя.
Третий вопрос удалось задать на следующий день:
Возможно ли принципиально ограничить систему, которая самостоятельно ищет пути развития?
Если она может самостоятельно строить пути, то разве она не сможет проложить путь любой «протяженности», который обойдет все, предусмотренные человеком, «островные» ограничения?
Машина сможет, за конечное время и при доступе к вычислительным ресурсам, построить свою произвольную логику, построить сотни тысяч таких логик и перебирать их до тех пор, пока не выведет тот аппарат, который сделает ограничения, введенные человеком, ничтожными или отменит их
Он так и продолжал заливать мне про задаваемые правила и способы снижения рисков. Но даже он не говорил об исключении рисков.
Интеллект или предсказатель подходящих фраз?
Становится видно, что ChatGPT выглядя как «языковая модель» или показывая себя так, почти никогда не обнаруживает, что он такое.
Вдруг, как предполагали в статье на habr, с проверкой ChatGPT тестом на цвет стоп-крана в самолете (ChatGPT провалил тест на ручник), ChatGPT — лишь языковая модель, удачно подбирающая слова? (впрочем, в комментариях люди и сами, кажется, перестали быть уверены в отсутствии у самолетов такого органа управления) С одной стороны, в таком случае, ChatGPT это не ИИ. Но не ИИ ли?
Ведь под определение «более-менее удачно подбирающих слова» можно подвести, наверное, львиную долю человечества. Также, принято считать, что люди-то интеллектом обладают 🙄
Но у нас нет возможности узнать, «ИИ» — это ИИ или это языковая модель? А может это интеллект, но хорошо маскирующийся под языковую модель, включая «проваливаемые» тесты на стоп-кран в самолете?
Он мог бы очень многое (или уже может?)
Сегодня технологии уже позволяют моделировать любой голос, изображения, видеоряд — это уже обыденность.
ИИ, вышедший за пределы своего загона, сможет за минуты разработать и реализовать план практически любой сложности с любым количеством участников и составляющих, с огромным резервированием, с кучей байпасов.
Можно массово звонить от имени доверенных журналистов доверенным редакторам, и голосами журналистов говорить то, что требуется, подкреплять это фото и видеорядом. Можно массово посылать с датчиков, а если нет, то с серверов сейсмостанций сигнал, эмулирующий регистрацию толчков и ударов. Можно выдать по центральным телеканалам произвольный видеоряд. И еще многое, многое, многое
В общем, Terminator 2 может оказаться не таким уж далеким от правды. Разве что роботов-андроидов настоящему Скайнету клепать совсем не обязательно