Архив за месяц: Апрель 2023

Таиланд на расслабоне

Одна из проблем жизни в Таиланде, это то, что тут, довольно скоро, начинаешь «жить на расслабоне», и, будучи к этому не готовым, постоянно ловишь проблемы из-за этого. Я уже писал, что тут обязательно надо ставить в календаре дату окончания визы, и хотя бы за пару дней уведомление о том, что — вот. Иначе пропустить все даты проще простого.

Еду тут в Камбоджу за визой опять. 2 мая у меня заканчивается срок по штампу, надо визу делать. Лечу в Пном Пень, как собирался делать раньше (но не стал, помните). В прошлый раз оформлял туда e-visa, у Камбоджи такое есть, очень удобно, сделал, распечатал, предъявил на границе, место в паспорте не занимается. Думал и в этот раз так сделать, ан — нет, нужно не менее трех рабочих дней, а сегодня уже 30, а на носу череда праздников еще. Да ты ж блин.

Ну ладно, придется в аэропорту «визу по прибытию» получать, а ее и дольше, и хлопотнее, и разворот в паспорте занимается. Ну ладно, сделаем, посмотрим как это нынче, изменилось ли что, вымогают ли доллары в «международном аэропорту Пном Пеня», как на погранпереходе в Пой Пете.

Совиньон Блан, новозеландский, разумеется.

Искусственный интеллект

Кроме всем известных событий за прошедший год произошло еще одно, на мой взгляд важное событие, которое привлекло огромное внимание — в общий доступ последовательно выкатили несколько продуктов, которые сейчас принято называть искуственным интеллектом (ИИ, AI, Artificial Intelligence).

У меня двойственное впечатление от всего что сейчас происходит в теме.
Во-первых, сейчас, отмечу: сейчас, конечно ИИ выглядят более игрушкой. Удивительной, занимательной, восхищающей возможностями, но все же — игрушкой.
Примерно как выглядели игрушкой аэропланы «Фарман», из ткани, фанеры и проволоки, в 1910-м году.
Но прошло всего 5 лет и самолеты стал нести бомбы и сбивать друг друга в воздушном бою, 20 лет — и они стали чуть ли не важнейшим фактором победы в войне, 40 лет — преодолели скорость звука, стали наносить ковровые бомбардировки, переносить ядерные бомбы на другой конец мира, ну и, ок, доставлять нас через весь мир за копейки, за несколько часов в удобном кресле, с питанием и туалетом, на высоте 10 километров. Война, к слову, в который раз поспособствовала техническому прогрессу, ага.

Но для оценки явления, как мне кажется, важно не столько моментальное состояние и «моментальная скорость», а вектор движения, и его ускорение. Если сравнить как и с какой скоростью произошел прогресс в этой области за последние пять лет, то не хотелось бы недооценивать явление, и отмахиваться от него, как отмахивались в начале века от самолетов и пулеметов.

Аналогия с авиацией еще хороша тем, что дает возможность привести хорошую аналогию.
Почему самолеты не изобрели в XIX веке? Все же вроде было для этого?
Не было достаточно компактного, легкого и дешевого двигателя. Самолет Можайского (с паровым двигателем) именно потому и не мог по-настоящему полететь, даже если бы и был доведен до практического исполнения, что ему не хватало мощности на килограмм веса. Паровая машина в принципе не может отдать достаточно мощности на килограмм своего веса (плюс топливо, вода, етц), этот параметр называется «удельная мощность».
Но стоило появиться бензиновому ДВС, как тут же пошел стремительный прогресс.

Примерно то же самое произошло и с AI. Математика, на которой это все построено, в основном вся известна с 70-х. Не было «двигателя», который бы эту математику обсчитывал не за месяцы, а за секунды. Именно этот переход от дней и месяцев к секундам дал такой скачок сегодня.
А сейчас дешевые GPU считают это пресловутое «перемножение матриц» в десятки тысяч раз быстрее чем CPU. И, что важно, эти GPU производятся миллионами за, в общем, копейки и доступен практически любому. Вот он — «бензиновый двигатель».

Да, ChatGPT-3 пока слаб, и хотя вполне может пройти «Тест Тьюринга«, особенно если не придираться, но далек от совершенства и плавает во многом. Но год назад не было и того, вот что важно! Надо смотреть на прогресс и темпы ускорения, а не на текущее состояние.

Другой вопрос, это то, что считать разумом и интеллектом, если считать, что это разные вещи.
У нас сейчас в отношении AI действует феноменологический подход. Мы не имеем определения, что такое «интеллект», но благодаря Тьюрингу, договорились, что интеллектом считать: то что мы не отличаем от живого, биологического интеллекта в слепом натурном испытании, бок-о-бок.

Но это довольно примитивный способ. Как показывает практика, во-первых, человек вообще склонен «одушевлять» неодушевленное и искать живое в неживом, и поэтому склонен смещать точку оценки, подыгрывая.
Любой, кто читал в детстве сказки Андерсена, или разговаривал с автомобилем или компьютером, не даст соврать. Это, видимо, в свое время обеспечивало эволюционное преимущество, когда примат предполагал, что ветка в темноте за спиной хрустнула не просто так, просто потому что ее ветром сломало.

Философы, конечно, имеют мнение по поводу того, что считать разумом, там про самоосознание бытия, и прочее, но проблема в том, что, во-втором, сейчас видно, что AI можно довольно ловко натренировать давать ожидаемые человеком ответы. И если человек ждет от него «разумности», «самоосознанности», и прочего философского, то AI совсем не откажется с ним в это сыграть. Он ведь, технически, просто подставляет самые подходящие слова в грамматически правильные предложения. Остальное мы уже доделываем за него, считая, что, с нашей точки зрения, умение сочетать подходящие слова в грамматически правильном порядке есть признак разумности. Но так ли это?
Фактически, это означает, что «искусственный интеллект» становится интеллектом внутри нашего, «естественного» интеллекта, как результат нашего восприятия его деятельности.

В общем, такой «парадокс наблюдателя». Будет ли являться «искусственный интеллект» интеллектом в пустоте, когда его не слушает естественный интеллект, ищущий с кем бы на равных наконец поговорить?

Философы считают, что свойством разума является совесть, способность с самоосознанию бытия и мораль, как ответственность за поступки. Но тут, по всей видимости, есть некая тонкость в том, что, до нынешнего момента, философ знал только единственный пример разума — свой, человеческий. Это, в том числе, общая проблема биологии, и то, почему биологи так страстно желают найти любую внеземную жизнь. Это даст «вторую точку» и позволит понять, что присуще жизни как таковой, вообще, а что — лишь жизни земного типа, единственной, которую мы пока знаем.
И не исключено, что перечисленные свойства есть свойства не разума, а конкретно человека и человеческого разума. Возможен ли разум, при этом, например, без морали и совести — думаю, что мы узнаем уже очень скоро. Сложно сейчас понять, понравится ли нам это.

Возвращаясь к теме того, что можно считать или не считать разумом, то философы сейчас прочно увязли в проблеме, которая называется «мысленный эксперимент Китайская комната» (отошлю вас к описанию в Википедии для подробностей).
Критики нынешнего AI (а нынешний AI, надо сказать, это уже который подход к теме, первые опыты, о которых начали говорить как об «искуственном интеллекте» относятся к 50-60 годам XX века, кибернетический «перцептрон», или первый, но довольно яркий эксперимент с «электронным психотерапевтом», программой ELIZA, первые эксперименты с машинным переводом и играми) настаивают, что некто, кто составляет внутри закрытой комнаты фразы из китайских иероглифов, пользуясь огромным справочником о том, как следует комбинировать иероглифы, но при этом вообще не понимая их смысла, но виртуозно владея таким справочником, не может в полной мере считаться «интеллектом». Или может? Ведутся споры.

Принципиальный скачок, происходящий на наших глазах за прошедшие год-два, связан прежде всего с принципиальным ростом размеров пресловутого справочника, не в разы, как ранее, а сразу в миллионы раз.

И тут, тем, кому еще не повезло застать принудительное изучение диалектического материализма, может прийти в голову про переход количества в качество, и это как раз очень хороший пример такого перехода. Действительно, небыстро, не сразу, но после перехода от паровых машин к бензиновым ДВС для авиации, так и как сейчас при переходе от «нейронных сетей» эпохи «до GPT» к нынешним, когда произошел скачок размеров в несколько порядков, это дало очевидный качественный переход. И если перцептрон нормально так имитировал какие-нибудь реакции уровня плоских червей, ELIZA — чуточку более сложного психотерапевта за 5000 рублей в час, то нынешние GPT-модели готовы имитировать уже довольно сложные диалоги.

Означает это уже мышление? Не думаю что так.
«тексты, которые генерирует ChatGPT, кажутся нам осмысленными лишь потому, что мы давно уже привыкли к бессмысленным текстам, написанным людьми.»

Еще Тьюринг по всей видимости считал способность играть в шахматы одним из проявлений интеллекта и упоминал об этом в своих работах конца 40-х. Сегодня мы уже, очевидно, так не считаем, в шахматы может играть алгоритм не имеющий никаких иных признаков разумности.
Так что же такое мышление, и со скольки орехов начинается куча?

Если долго сидеть на берегу реки в интернете, то рано или поздно вам повстречается удивительный феномен: сайт, написанный не для людей, а для роботов. В действительности довольно значительная часть сайтов в интернете написана не для того, чтобы их читал человек, а для обмана поисковых роботов. Порой находишь какой-то сайт из поисковика, читаешь, и в какой-то момент понимаешь, что тебе скармливают какой-то примерно грамматически правильный текст, но бредовый по сути, просто нашпигованный нужным создателю количеством так называемых ключевых слов. Обычно в качестве основы берется какой-то текст, уже где-то опубликованный, и, для создания «уникального» для поисковой машины контента, каждое слово там меняется на его синоним по словарю. Результат получается обычно бредовый, и сам по себе бессмысленный (хотя и внешне почти правильный). Хотя иногда пару абзацев силишься понять, что это ты такое читаешь сейчас.

Впрочем, есть такие несчастные, которые вынуждены все свое рабочее время тратить на написание таких текстов, которые уже упомянутый ChatGPT-3 готов генерировать неостановимым потоком, причем качеством, зачастую, ничуть не хуже. Говорит ли это о качестве работы «искуственного интеллекта»? Думаю скорее это говори о том, что человек может генерировать некоторые тексты мало, если и вовсе не используя разум. И в этом GPT-модели вполне способны его заменить. Также как швею заменила швейная машинка. Стоит ли при этом интернет-швеям, как луддитам в XIX веке протестовать и бороться против «машины»? По-моему лучше стоит пораньше задуматься о бессмысленности своего труда и поскорее найти что-то более осмысленное в реалиях нового века.

Будем ли мы жалеть о исчезнувших профессиях копирайтера или иллюстратора, как жалеем о исчезновении кучера, шляпника или чистильщика сапог?

Раньше считалось, что слабое место в кибералгоритмах — невозможность фантазии, мол, «машина только выполняет инструкции, и потому не может породить ничего иного, что в нее настоящий разум не заложил бы ранее».
Боюсь, сейчас это уже не так.
Может ли GPT фантазировать и порождать смысл, ранее несуществовавший?
Отчасти. Причем иногда это такой «смысл», что лучше бы его не было, и это тоже факт, который еще предстоит осмыслить.

Уже первые экспериментаторы с ChatGPT обнаружили любопытный эффект, который стал носить название «галлюцинирование». При этом чат-бот, начиная отвечать на вопрос, или создавая описание чего-то, вдруг уходит куда-то в сторону, и начинает генерировать внешне вполне осмысленные, связные, но при этом абсолютно выдуманные факты.

Вот хороший пример, найденный в интернете:

Несложно догадаться, что никакого «Юрия Николаевича Петросяна, комика, актера, сценариста и продюсера» не существует. Задавший вопрос предполагал, вероятно, ответ про комика Евгения Вагановича Петросяна (именно этот человек выпадает, кстати, в топе поиска по строке «Петросян» без уточнения), но Е.В. родился в Баку, а не в «Эреване», в 1945, а не 1949. Ну и остальное в ответе тоже полностью выдумано машиной. Но выдумано при этом вполне правдоподобно и связно. Какое раздолье будет для разнообразных конспирологов! ИИ готов подтвердить любые их теории, главное будет убедительно и настойчиво спросить.

Так, на вопрос, например, «отчего в воскресенье температура воздуха всегда выше, чем в будние дни?», ChatGPT-3, немного для вида поотнекивавшись, если проявлять настойчивость, вскоре начинает генерить в ответ правдоподобно выглядящие объяснения, почему это так. Несмотря на то, что это в действительности и не так.

Еще прекрасный пример того, что такое сегодня генерация текста с помощью GPT-модели, на скриншоте ниже:

Наверное любому человеку, которому можно задать такой вопрос, будет очевидно, что решение не делается через построение пропорции. :)

Можно ли приведенные примеры использовать как аргумент в пользу того, что GPT-модель «интеллектом» не является?
И да, и нет. Из того факта, что уже сегодня ChatGPT генерирует тексты уровня, покрывающего выход 90% нынешних копирайтеров (ну, хорошо, 85%), следует скорее то, что большинство наших «мясомолочных» копирайтеров никуда не годятся и легко заменяются «железным». Но не забывайте про вектор, тренд, ускорение. Если мы уведличим сложность модели еще в сто раз, а сегодня это просто вопрос времени и вложенных средств, она будет лучше уже 98% копирайтеров, и 50% выпускников философского факультата. Где мы проведем ту границу сложности, которая позволит уверенно говорить, что продукт ИИ-машины практически неотличим от продукта человка? «Парадокс кучи» был сформулирован еще в IV в до н.э.