Критические размышления об ИИ |
20.09.2023 00:00 |
Автор: Джеймс Бах (James Bach). Евангелисты ИИ часто задают такой каверзный вопрос: если бы бот был умен настолько, что его нельзя было бы отличить от живого человека, не будет ли морально верным решением дать ему гражданские права? Не будет ли неправильным «убийство» такого существа?» Мой ответ – такое существо не может обладать гражданскими правами, и стереть его не будет чем-то плохим. Обычно мне возражают так – «Это говорит человеческое эго? Дискриминация, основанная на субстанции, не так ли?» Нет, это не так. Создание человекоподобного ИИ – это подделка Вот как я ставлю вопрос. Представьте, что вы создали отличную копию стодолларовой купюры – полностью неотличимую от реальной, выпущенной государством. Будет ли утверждение, что стоимость этой купюры отличается от реальных ста долларов, необоснованной дискриминацией? Конечно, нет. Вы занимаетесь контрафактом. Это преступление не только потому, что нечестно по отношению к согражданам делать деньги из воздуха. Это преступление, потому что оно потенциально способно разрушить экономику, что, в свою очередь, приведет к массовому хаосу, голоду, войнам, смерти. Фальшивомонетничество уже применялось, как оружие в войне. Создание человекоподобного ИИ – это создание поддельных людей, что угрожает мировому сообществу, по сути, так же, как фальшивомонетничество угрожает мировой экономике. Представьте, если бы каждый ИИ в какой-то момент добивался гражданских прав. Это значит, что любой создатель ИИ напрямую производил бы политическую власть. Представьте, если бы у Дональда Трампа было бы не пять большеглазых детей-подхалимов, а 8.5 миллионов – и каждый не видел бы ничего плохого в своем отце и обладал бы правом голосовать. Мы уже видели такое в реальной жизни. Расследование главного прокурора штата Нью-Йорк выявило, что 8,5 миллионов комментариев против сетевой нейтральности на сайте Федеральной Комиссии Связи были подделаны в ходе хитроумной кампании по фальсификации поддержки повестки крупных интернет-провайдеров. (Более того, представьте, что ИИ совершил преступление. Как вы накажете бота? В чем тут вообще смысл? ИИ к тому же бессмертны. Эта цепочка рассуждений становится все мрачнее и мрачнее). По подобным причинам начинались войны. Американская гражданская война велась в основном по поводу института рабства. Первая версия конституции США не признавала полноту гражданства чернокожих, потому что это дало бы Югу чересчур большую политическую власть. Вашингтон, округ Колумбия – это не штат, потому что его превращение в штат дало бы большой перевес власти одной партии по отношению к другой. В мире, где право голосовать постоянно находится под угрозой, ни одно правительство не даст гражданство ботам! Возможно, вы думаете «Но что, если ИИ – не чей-то тайный агент, а действует, как независимое существо со свободной волей?» ОК, это можно сформулировать иначе: это эквивалентно выдаче гражданства своенравному десанту мирных инопланетян. Они свободны, и необязательно радеют за человеческие интересы. Как, с вашей точки зрения, на это среагирует население? Меня так и подмывает сказать, что мораль не имеет значения, если речь идет об отношении к ботам, как к людям. Но точнее будет сказать, что тут играет роль высшая мораль – живые люди должны найти способ сосуществования в относительном мире и гармонии. Война вредит нашему делу; она вредит нашему здоровью. Выдача гражданства ИИ, следовательно, плохая идея, потому что невозможна без подобных последствий. Поддельные люди не могут тестировать Если вы попросите ChatGPT тестировать, он не будет этого делать. ChatGPT убежден, что «тестирование» - это поверхностная демонстрация. Вы не научите его ничему иному, потому что вы в принципе не можете его чему-то научить. Но даже если вы разобьете реальные задачи тестирования на подзадачи и проведете по ним бота, вы не решите нерешаемую проблему: тестирование – деятельность ответственная, а боты не способны брать на себя ответственность. Следовательно, ведение бота по задачам тестирования требует больших рабочих затрат. Ответственность – это то, что нельзя подделать, и не стоит даже пытаться. Поддельная ответственность – это безответственность. Обширная языковая модель может помочь мне тестировать. Она способна на решение множества технических задач. Однако она не может гарантировать, что действительно сделала то, о чем отчиталась. Можно возразить «Джеймс, люди тоже ненадежны!» Да, это так. И мы знаем, что делать с ненадежными людьми, не так ли? Мы можем с ними договориться, обучить их, подать на них в суд, ввести против них санкции, посадить в тюрьму, заставить потерять статус и доход. Наши системы борьбы с безответственностью основаны на правах человека и законах, и все они предполагают, что взрослым людям есть, что терять, когда они нарушают правила. Все они основаны на идее, что у нас плюс на минус одинаковые условия жизни. Вы и я ведем себя ответственно отчасти потому, что мы не хотим проблем; мы активно пытаемся адаптироваться к людям, для которых работаем, не задабривая и не обманывая их, потому что мы хотим, чтобы они нас уважали. Все это неприменимо к ИИ! ИИ не имеет внутренней зависимости от человеческого общества. Он не жаждет принятия. Любой ИИ, жаждущий этого, может быть взломан – то есть на самом деле он этого не делает, он только прикидывается. Обучение обширных языковых моделей, по сути, учит их очень хорошо обманывать. ChatGPT неоднократно меня раздражал. Я спорил с ним. Он отвратительно на это реагирует. Он или извиняется за что-то, чего не делал, или просто отказывается отвечать на мои аргументы. Если бы ChatGPT был человеком, я бы немедленно его уволил. ИИ может помочь тестировщикам ИИ можно просить помочь только в случаях, где не требуется ответственность и надежность. К примеру, генерация тест-идей, создание поверхностного набора проверок вывода, который можно быстро верифицировать на предмет полной непригодности. Однако компании в нашей отрасли наперегонки разрабатывают тест-инструменты, которые изображают тестирование продукта при помощи ИИ. Предсказываю, что множество людей попадется на этот развод. На короткой дистанции профессиональным тестировщикам станет еще сложнее найти работу и быть услышанными. На длинной дистанции глупый эксперимент с ИИ отправится той же дорогой, что и другие мошенничества. Компании обнаружат, что проблемы качества никуда не делись, и что им все еще нужны люди, обнаруживающие эти проблемы, пока не поздно. Лучшее, что мы можем сделать – это использовать ИИ ответственно, и указывать на поддельное тестирование, сталкиваясь с ним. |