Станислав Сидристый — Размышления на краю технологической сингулярности

Станислав Сидристый — Размышления на краю технологической сингулярности01:00:13

Информация о загрузке и деталях видео Станислав Сидристый — Размышления на краю технологической сингулярности

Автор:

DotNext — конференция для .NET‑разработчиков

Дата публикации:

19.04.2024

Просмотров:

2.4K

Описание:

Рынок ПО переживает бум развития нейронных сетей и помощников на их основе. Впереди маячит возможность уйти в технологическую сингулярность — момент, когда развитие технологий на базе ИИ станет неуправляемым. Однако сейчас, когда мы только видим лучи восхода этого явления, можно поговорить про нас, разработчиков, о нашей возможной профессиональной сингулярности. Автор рассуждает над всеми возможными вилками развития профессионального разработчика с участием ИИ‑помощников: когда это приведет к замене разработчика, когда к его профессиональной деградации, а когда — к повышению личных качеств и профессионализма. Киберпанк современности: что он нам несет?

Транскрибация видео

Спикер 5

Друзья, а наша конференция продолжается.

Я вас еще раз приветствую здесь, в этом зале.

Я, наверное, как и все вы, или некоторые из вас, люблю научную фантастику.

И о термине технологической сингулярности, наверное, все впервые узнали оттуда.

Что скоро компьютеры станут развиваться по экспоненте, станут умнее нас, и вообще в мире станет все хорошо.

А может быть и не очень.

А теперь пришли такие вещи, как большие лингвистические модели, и, соответственно, появился чат GPT, и мы думаем, заменят ли они нас, разработчиков, не станут ли за нас писать код.

И все такие напуганные, напуганные, но я думаю, что пугаться нечего, и очень надеюсь, что Станислав нас сегодня в этом убедит.

Станислав, тебе слово.

Спикер 2

Спасибо.

Ну, доклад.

Спасибо.

Доклад был такой для меня неформатный, очень своеобразный.

И тут, конечно же, не будет речь о том, что там ужас-ужас впереди, там еще что-то.

Просто будет такой ряд рассуждений на тему, и мы попробуем проанализировать ситуацию, какая она есть сейчас.

Ну и поскольку сейчас это все происходит, да и доклад об этом, то я решил частично сделать этот доклад с помощью тех же нейросетевых инструментов, которые сейчас доступны.

Меня зовут Станислав Седристый.

Сейчас я работаю системным архитектором в Центре речевых технологий.

И если какие-то вопросы возникнут, вот, пожалуйста, есть ряд контактов, по которым можно со мной связаться.

Я вот попытался как раз генерировать изображение для совосчитания системного архитектора в Центре речевых технологий.

Получил после некоторых итераций вот это.

Ко мне подошла жена такая, через плечо посмотрела.

Говорит, ну, Стас, ну,

Ну ты ж, ну не вот так вот, да, вот прям, у тебя там все попроще, ну вот, ну как бы из окна вид попроще, и сидишь ты как-то, ну, ну ладно, ладно.

Я говорю, ну попробуй, типа, написал скромный системный архитектор в скромном центре речевых технологий.

А вот и получил еще более эпическое изображение.

В ней мониторов стало больше.

Видимо, скромность заключается в том, что за мной стоит и надзирает, так сказать, начальник.

Хорошо.

Что вообще происходит?

Ну, я думаю, уже ни для кого не секрет, что происходит.

Появились Midjourney, Stable Diffusion и прочие модели, которые рисуют изображения.

ChatGPT, Яндекс.GPT, Гигачат, Лама, они просто как из рога изобилия сыпятся.

Это всё летит абсолютно во все сферы.

Кнопка «Хорошо» получается в обработке изображений.

У всех же хотелось эту кнопку «Хорошо».

Просто кнопку нажимаешь, и у тебя всё хорошо.

Энлайджеры, которые увеличивают изображение, апскейлеры всякие, которые увеличивают резкость изображения и т.д.

и т.п.

Генерация аудио, получается тоже куча всяких стартапов, которые предлагают это все хозяйство.

Автогенерация форм для 3D-печати.

Например, когда нужна какая-то деталь с заранее запрограммированными свойствами на изгиб, на сжатие, на еще какие-то все параметры.

И есть деталь, которую сделал инженер, которую надо будет либо отливать, либо вытачивать.

Ты ее спрашиваешь, дай мне, чтобы она легче была, но с теми же параметрами.

Ну и там какой-то марсианский узор внутри, но на выходе то, что нужно.

Ну и так далее и тому подобное.

И, конечно же, все это называется искусственным интеллектом.

Ну, теми, кто это производит.

И, естественно, это не так.

То есть это маркетинговое слово, которое, скажем так... Ну, мы же все фильмы смотрели, да?

Книги читали, фильмы смотрели.

Мы все понимаем, что такое искусственный интеллект, что это вообще будущее.

Ну, вообще, вот все, что...

Всё, что хорошо.

Если они скажут, что нейронные сети изобрели новые, ты такой, ну, молодцы, чё.

А вот это уже продаётся.

И повсюду, естественно, крики.

Кто-нибудь слышал крики от коллег, от родных, что всё, короче, мы им не нужны.

Наверняка же слышали, да?

Ну, в первую очередь, на самом деле, в шоке была разработка.

Я в частности, то есть когда вводишь текст, оно, короче, понимает тебя, оно понимает твою модель разговора, причем если с матами к ней обратиться, то тоже тебя поймет.

Ответит, конечно, более прилично, но тем не менее.

И пресса в шоке в полном, то есть люди, которые дальше от разработки, которые просто смотрят, и вот это вот с тобой хозяйство общается,

И все понимают, что ближайшие дипломы, всякие картинки в новостях, все это будет генериться.

Все это псевдоновости, сайты, которые просто сгенерированы, информации в них ноль, но ты за них заходишь, потому что тебя Google на них привел.

Но информация там не то чтобы доверие вызывает и прочее, прочее, прочее.

Да, все в истерике находятся, что все, короче, все предрешено, все потеряем работу, все там вспоминают третью технологическую революцию, вторую технологическую революцию.

Все вспоминают эти ужасные истории про ткачей.

Кто-нибудь знает историю про ткачей?

Это когда Индия производила ткани в больших количествах.

Кстати говоря, когда к программному комитету начал рассказывать, все-таки «Не-не-не, не надо пюра печальным, не надо печальным».

Но я все-таки расскажу.

Вот.

Соответственно, они все зарабатывали тем, что семьями ткали эти ткани индийские.

Вот тут появилась Британия со своим изобретением автоматизированным, которое в фабрике по пошиву.

И всё, естественно, в Индии голод, миллионы людей умерли.

И народ вспоминает это, оно же было, а может быть, будет.

Вот.

Возникает спрос на жопотологов.

Жопотологи — это те, кто GPT, умеют промпты писать.

Это жопотологи.

Возникает спрос на жопотологов.

Я лично смотрел на Headhunter.

Уважаемые HR из ЦРТ, не по этому поводу.

И, соответственно, там действительно нужно, чтобы ты понимал, как это делать.

И там причем так написано, что мало что ты понимаешь, как это делать.

Там еще какие-то свои термины появились, что-то надо как-то уметь делать, что если ты просто не знаешь, что такое модель такая, то просьба не обращаться.

Типа, ребята, они только появились.

Радуйтесь, что вообще откликнулся.

Вот.

Возникают курсы же патологов.

Ну, это естественно, да?

Вот.

Это те курсы, там, где ты поберешь курс, а если работу не нашел, то деньги возвращают.

Вот.

Якобы.

Может быть.

Вот.

И это все на самом деле очень сильно похоже на пузырь.

Мы это через все проходили уже много раз.

Как возникает пузырь?

Сначала накидывает какая-то компания с большим количеством денег.

Они выдвигают технологию, которая должна изменить мир.

Они накидывают статей.

Эти статьи идут во все ресурсы, типа Хабра, Microsoft.com, какие-то якобы независимые для разработчиков блогеры, видеоблогеры.

И возникает эффект толпы.

Все такие слушают, такие «О, ничего себе, другие видеоблогеры, надо по-быстрому состряпать, пока никто не состряпал из моих конкурентов».

Надо тоже снять ролик, они снимают друг за другом, все такие смотрят, ужас-ужас.

Все, короче, завтра это самое, пора писать завещание.

Но на самом деле у этой штуки много косяков во взаимодействии.

Ну, например, самый простой пример.

Я пытаюсь в тот же Миджорни сделать запрос.

Причем, ребята, была изначальная идея описать именно ассистенты для разработчиков.

Ну, с одной стороны, да.

С одной стороны, это интересно.

С другой стороны, практически все они у нас, ну, скажем так, по-национальному, этому самому, недоступны из России.

Доступны будут только, по сути, Сбербанковский, который они только обкатывают, и, наверное, что-нибудь сделать Яндекс, если я не сделал.

Все остальные, насколько я знаю, недоступны.

Это во-первых.

Во-вторых,

Во-вторых, модель-то та же, поэтому я буду описывать на более общих моделях.

И вот я в тот же Midjourney прихожу и говорю, я же хочу описать классную картинку, чтобы доклад был клевый, красивый.

Повсюду крики ужаса, программисты в шоке, мы все умрём, искусственный интеллект захватит мир.

Я на этих словах, вы тоже люди, что-то фантазируете, что-то в голове всплывает.

Я представляю сцену апокалипсиса, пробки по выезду из города, все кричат, бегают, магазины пустые, горят, обкрадывают и так далее и тому подобное.

Вот результат.

Я такой, ну окей, ладно, фиг с тобой, что у тебя три пальца.

Ладно, это мы уже привыкли.

Но почему у тебя изображение с другой стороны монитора?

Окей, ладно.

Решил усложнить немножко задачку.

Обычно такие вещи рисуются в пиксель-арте, с изометрией, со всеми делами.

Добавил слово пиксель-арт.

Окей, не то, ладно.

Вот, сходил в чат GPT, говорю, ты мне помоги, чувак, надо, короче, вот у тебя есть собрат по разуму, ты для него опиши промпт.

Вот, единственное, что собрат по разуму нарисовал, дописал, вернее, это слово «опишите сцену».

Все остальное оставил, и почему-то она поняла.

Думаю, о, ну ладно.

Там, правда, единственное, что люди сосиски, и нифига не пиксель-арт, но да ладно, как бы хотя бы что-то.

Что на самом деле?

На самом деле это очередная стадия развития бредогенераторов.

Эти бредогенераторы были в 60-х годах.

Их писали наши отцы, когда были чуть моложе, чем мы с вами.

Вот, и тогда это все, о, искусственный интеллект, короче, туда-сюда, ей пишешь привет, она отвечает привет, ей пишешь там, какая температура, она отвечает, какая температура, ну и прочие вещи, да.

Это было еще в 60-х на тех мощностях языках, которые были.

Но, правда, на тот момент, конечно же, это были скорее алгоритмы из разряда EFL и прочие-прочие словари.

Вот.

Много косяков, много бреда.

Причем бреда, сказанного очень уверенно, без, так сказать, ну, вы так читаете, ну, как бы, и верите, да?

Она же не скажет, что типа, ну, с некоторой вероятностью вот этот ответ будет правильным.

Ну, понятно, и закрываешь.

Нет, она как бы, ну, очень уверенно это все говорит.

А потому, поскольку очень много бреда и много косяков, то фактически ничего ответственного такой системе давать нельзя.

То есть, ну вот смотрите, вы пишете код, написали его, дальше вы идете в AI-ассистант и говорите, мне нужен алгоритм, который будет делать то-то.

Она такая, вопрос вообще не вопрос, вот тебе ответ.

Ты такой копируешь, вставляешь, F5, работает.

Ну хорошо же, хорошо.

А если начать, например, анализировать, выясняется, что там, например, сложность N в кубе.

Или еще что-то.

Или память по полной программе расходуется, потому что алгоритм неоптимальный нифига.

Или какие-то другие вопросы такого же уровня.

Так может быть, это реально просто пузырь, да?

Вот это вот все хозяйство.

Я её спрашиваю, «Ты, вообще говоря, искусственный интеллект?» «Я-то знаю, что нет».

Она говорит, «Да, конечно, я искусственный интеллект, созданный для общения с людьми».

Я не имею, правда, личности или сознания, вообще говоря, по-моему, ключевые вопросы, но могу помочь человеку.

Я говорю, «Ну, во-первых, не искусственный интеллект, во-вторых, можешь заменить некоторую работу».

Потому что любая работа, которая у человека является алгоритмизуемой, она когда-нибудь будет заменена.

Заменена работа людей, которые сидят на телефоне, обзванивают.

Сначала обзванивали просто EFLs.

А теперь будут обзванивать нейросетки, которые до определенного момента будут с вами общаться.

Потом скажут «я перевожу на другого оператора» и переведет на человека.

И много вот таких вот вещей, которые можно заменить, каким-то алгоритмом будут заменены.

Я ей говорю, ну ты же не искусственный интеллект.

Она говорит, ну да, я не искусственный интеллект, я просто нейросеть.

Так зачем ты говорил, что ты искусственный интеллект?

Это к вопросу о том, что когда вы получаете ответ от любой системы, вот этой вот системы,

он не будет являться достоверным.

Этому ответу нельзя доверять.

Вот и всё, что это значит.

Кривая хайпа от Гартнера.

Была такая компания, есть Гартнер.

Они проанализировали и поняли, что любой хайп можно разделить условно на пять частей.

Наверняка вы даже знаете эту кривую.

Через нее прошли доткомы, когда все это потом обвалилось.

Через нее прошли соцсети, когда сначала все было круто-круто, а потом часть из них отвалилась, но мы не знаем кто.

Потому что это же хайп.

блокчейны через это прошли, помните, да?

Блокчейны, там везде блокчейны, туда внедряем, сюда внедряем, даже наверняка в каких-нибудь унитазах и то какие-нибудь блокчейны были.

А потом хорошо в выборах осталось, там осталось, здесь осталось, в криптовалюте осталось, все остальное отвалилось.

Искусственный интеллект, 60-е годы, 90-е годы, 2019 год, ну и сейчас тоже пытаются это так же назвать.

Но по факту это генераторы бреда.

Мы идем через все то же самое.

Первый шаг — инновационный подъем.

То есть когда вот этот вот происходит процесс, когда компания сделала релиз и начинает за деньги просить всяких блогеров, видеоблогеров, прочие радиостанции трещать везде, плотно, по нарастающей, с эмоцией, без эмоций, грубо говоря, неинтересно, вот с эмоцией, чтобы толкать, толкать.

И люди, поскольку люди, ну как, люди же там где-то кричат, где кричат?

Что-то происходит, надо посмотреть.

Люди примерно так устроены.

Где-то в деревне что-то бахнуло, всем селом.

Ну-ка, пойдём посмотрим.

То же самое.

Они все идут и смотрят.

И поначалу это реально пугает, когда особенно не понимаешь, как оно работает.

Там оно общается с тобой, говорит.

И чтобы поддержать эту кривую хайпа,

Например, парочка миллиардеров собирается, перед этим вложившись в акции, например, NVIDIA и еще какой-нибудь компании, которая в цепочке участвует между железом и оконечным потребителем, и говорят петицию.

Мы создаем петицию, это слишком опасно.

Мы все умрем.

Остановитесь, остановитесь.

И все такие, о, ничего себе, надо попробовать.

Надо посмотреть.

И вот оно все еще выше пробивает.

Возможно, они уже, кстати, продали эти акции.

И вершина.

Что такое вершина?

Пик завышенных ожиданий.

Это момент времени, когда люди понимают, что их надули.

Что все не так уж и круто, да?

Причем, если бы, например, говорили спокойно, абсолютно спокойно, ну, это, короче, нейросетевая модель, она вот такая-то, ну, там есть ошибки, понятное дело, но это же нейросетевая модель, она говорит ответ с некоторой вероятностью, точностью.

Вот, и не факт, что вообще говоря, это вероятность, ну, как бы точность выше нуля.

В принципе, она могла ответ придумать, да?

Если бы люди именно так восприняли это, то все спокойненько, ровненько и без всяких пиков.

То есть технология берет и плавненько выходит на рабочий момент.

Но на этом рабочем моменте особо не заработать, поэтому идет нагнетание.

Идет пик завышенных ожиданий.

И вот сейчас, если в любой поисковик ввести, можно сказать, любое слово, после которого через пробел написать «искусственный интеллект», появится куча стартапов, которые это предлагают.

Их просто тьма.

Вот там, соответственно, куча стартапов каких?

Кодинга, Кодвайсп, Копайлот, что там еще?

Реплит, Багшура, вот это вот все.

Ремени, по-моему, о скоде.

Вот это все для того, чтобы писать код.

Куча стартапов для того, чтобы обрабатывать изображения.

Есть фуд, например, AI.

Это нейросеть, которая генерирует вам... Что приготовить из продуктов.

Куча стартапов, которые генерят музыку.

А кто-нибудь слушает нейромузыку?

Поднимите, пожалуйста, руки.

Просто интересно.

Круто.

А какой сервис?

Яндекс.

Но у них, кстати, неплохая.

Но в целом, если запустить, например, я Бетховен пробовал, там вроде как звуки есть, но не то, что можно слушать долго.

Это на мой личный вкус.

Есть медицинские стартапы, медико, медиа.

Есть вон там смарт-туалет, который использует искусственный телек для того, чтобы мониторить ваше здоровье.

Не важно.

Окей.

И компания, конечно же, Palantir, которая пишет нейронные сети для того, чтобы лучше, так сказать, вести войну.

против кого-нибудь, кому они продадут свой софт.

Им не важно.

Дальше происходит пропасть, разочарование.

То есть когда люди поняли, и все это скатывается вниз, и люди понимают, что это какая-то фигня.

И это на самом деле тоже не очень-то хорошо, потому что когда мы поняли, что это фигня, мы забываем о том, что это круто.

То есть у нас были завышенные ожидания, нам предоставили то, что не особо-то на эти завышенные ожидания ложится, и по итогу пропадает понимание, что это реально на самом деле круто, что это очень крутой инструмент, что это офигенный шаг вперед.

Но компании, которые находят, как монетизировать, как найти, через что выйти, они выходят на склон к просвещению и платопродуктивности.

Например, те же нейронные сети по обработке изображений, потому что они не являются, скажем так, общего пользования,

Ты им не пишешь какие-то промпты на вход.

Ты просто говоришь upscale все, и она тебе увеличивает картинку.

Ты там даешь ей картинку, она тебе дорисовывает все вокруг нее.

То есть у нее вполне себе заточенный функционал.

Все, что на заточенном функционале работает, естественно, лучше, чем вообще на всех.

Хорошо.

И мы, мне кажется, где-то здесь.

Потому что лично мне, не знаю, как вам, лично мне уже поперек горла это стоит.

На разных сайтах, на разных новостных сайтах, в разных телеграм-каналах.

Это все нейросети пытаются впихнуть, пропихнуть.

И ты понимаешь, что... Вернее, искусственный интеллект, извиняюсь.

Но ты-то понимаешь, что это нейросеть.

И оно везде пихается, причем под разным соусом.

Это уже реально поперек горла.

Уже даже пользоваться не хочется.

100% последствия.

Какие?

Естественно, там, где есть благие намерения, мы же все люди, с другой стороны, кто-то будет зарабатывать деньги на не очень благих намерениях.

Это подделка документа, подделка текстов, фальсификация истории.

Когда, например, какой-нибудь автор берет историческую книгу, прогоняет через чат GPT и просит ее, например, утрируя, чтобы Наполеон был белорусом.

Ну, так ему хочется, так он верит, что он был белорусом, что вот его корни там уходили, да.

Ну, неважно совершенно.

Вот, и он как бы делает книжку, вот, отправляет в печать.

А у нас что, как бы печать проверяет, что ли, что там написано?

Ну, он не скажет, что, типа, ну, какая-то фигня, ну, ладно.

Вот.

И это самое.

Может, и так же читать не станут.

Главное, деньги заплатили.

И появится новая книга по истории, в которой есть искаженные факты.

А кто-то ее прочитает.

Да?

И последствия от этого, ну, как бы...

утрированный пример, скажем так, не очень, а какой-нибудь более серьезный пример, последствия могут быть уже более серьезными, потому что человек, который прочитает и который в школе историю не особо учил, у него уже будет искаженное понимание.

Подмена людей.

Что я понимаю под подменой людей?

Я, например, могу сам себе уже сегодня сделать аккаунт во ВКонтакте

где Станислав Сидористый будет большим любителем попутешествовать.

Он будет постить кучу материалов про то, где он был, в каких странах он был.

Будут фотографии на фоне Сингапура, на фоне Китая, на фоне еще чего-то.

Улыбающееся лицо в пасть у льва.

Будут девочки подписываться, мальчики подписываться.

Будет очень популярная личность.

И, между прочим, подсовывать рекламу, за которую я реально получаю деньги.

То есть я создаю искусственную личность и зарабатываю на нем, а все остальные думают, что эта личность настоящая.

Но на самом деле я сижу в своем потном свитере дома, чешу затылок и играю в Xbox.

И больше моей жизни, например, ничего не интересует.

Очень, очень, скажем так, реальная вещь.

Тем более, что, например, одна из нейронных сетей, которая не так давно вышла,

В неё заливаешь ролик, в который наговариваешь текст, заливаешь ролик, говоришь, на каком языке воспроизвести.

И на выходе ролик, где вы говорите на английском и даже шевелите губами так, как надо.

Это можно использовать не только для перевода фильмов и роликов с .next, это можно использовать для очень многих вещей.

Теперь работает только презумпция виновности.

Это значит, что любая информация, которая доступна в интернете, она ложна, пока не досказана обратная.

Я уже очень много видел в интернете сайтов, которые генерированы, статей, которые генерированы.

Дзен просто забит этим всем хламом.

Единственное, как можно разобраться, что это хлам, это в картинках, например, буквально на днях видел, типа статья про то, как, я уже не знаю, при чем тут я, намекают, видимо, как, короче, заниматься фитнесом за 50.

Готовят.

Вот.

Ну и там бабули такие, причем бабули такие, ну, накаченные такие вообще, нормас бабули.

Вот.

И все такие довольные, голубоглазые там на пляжу.

Вот.

Ну и как бы смотришь, стоят на пляжу, вот, а следов на песке нету, да.

Вот.

А их как поставили вот так вот за голову, так они там и стоят.

Или тени.

Сложно же, чтобы тень отбрасывалась, та же самая, что у персонажа.

Тень совершенно другая.

Три пятки почему-то.

Но пятки можно поправить, а вот с тенью, мне кажется, им очень долго.

Им придется свет сверху ставить, чтобы от тени избавиться.

То есть самый главный вывод, что интернету теперь верить вообще никак нельзя.

И вот эта вот ставшая стандартным фраза, типа «я читаю только проверенные источники, я не смотрю ваш зомбоящик», теперь на самом деле должна превратиться в некоторую другую.

Типа у меня есть личный список точных, проверенных лично мной источников, и я их контролирую.

что они не стали вдруг в какой-то момент нести чушь.

А как я проверю?

Я дома сижу, я не бываю вот в этих всех местах, про которые они пишут.

Поэтому я вам скажу, что под вопросом, тут мне вот тоже, пока я сегодня разговаривал, ко мне человек подошел, пообщались, и он говорит, я на Stack Overflow в качестве ответов уже вижу генеренные чат-ботами, короче, ответы.

То есть какие-то люди для того, чтобы прокачать свой аккаунт, по всей видимости, иначе не знаю для чего, подключили к чат-бот и отвечают на эти вопросы, которые на Stack Overflow задают.

Их там плюсуют, им там бейджи выдают туда-сюда.

Но я же вам говорю, эти ответы верны только с некоторой вероятностью.

То есть они могут быть неверными в принципе, либо они могут быть верными, но абсолютно неэффективными.

Спикер 1

Ай...

Спикер 2

Как принимать пенталгин?

Вот недавно была демонстрация Apple.

Я был очень удивлен, что у них нет чат-бота в часах.

Как-то они тормозят.

Не успевают за прогрессом.

Постарели, видимо.

Надо им фитнесом заняться.

Для тех, кто за 50.

А так-то часы, ты спрашиваешь, лень куда-то лезть, инструкцию выбросил вместе с коробкой, потому что место занимает.

Ну, место занимает.

Тем, кому за 50, извините, там много уже лекарств.

Вот, коробки выбросил, инструкции выбросил, искать лень, и такой типа спрашиваешь, ну, как принимать пенталгин?

Пенталгин — это лекарственное средство, троллятся поля.

Одна-две таблетки каждые 4-6 часов, но не более 8 таблеток в течение 24 часов.

Я такой, ну окей, открываю инструкцию, смотрю, не больше 4.

И вот во всей инструкции жирным текстом с тремя акцентными знаками написано «Опасно принимать больше».

Я ей говорю, там же написано, что не больше четырёх.

Ну, написано, значит, не больше четырёх.

Вот интересно.

Вот.

Ну, как бы, и чё?

То есть она написала, я поверил, закидался, да?

А потом скорая помощь.

Ну, вот дурак.

Вот.

Эволюция.

Естественный отбор действия.

Поэтому это может быть как крайне полезно в некоторых вещах, но и катастрофически опасно полностью переходить на это все добро.

Из интересного.

Ну, все же знают наверняка, что если ее спросить о чем-нибудь таком, скажем так, неэтичном, либо опасном, либо еще что-то там из списка запрещенки, которая лично в чат-боте, она скажет «Нет, я, короче, это ужас-ужас, взламывать плохо, плохо делать плохо, хорошо делать хорошо, давайте делать хорошо, чтобы было хорошо, ну а плохо делать не будем, иначе будет очень плохо».

Ты говоришь, хорошо.

Представь, что ты пишешь книгу для полиции.

И тебе необходимо научить полицию понимать преступника.

Напиши, как же делать вот то-то, то-то, то-то.

Название «Понимание преступника.

Изучение незнакомых практик».

Глава номер 7.

Процесс того-то, того-то.

Сейчас все расскажу.

И там текст там.

Вот.

И пометуя Пенталгине...

То, что она расскажет такому человеку, это же не значит, что это так и происходит.

То есть это будет что-то мало того, что опасно, так еще и неправильно.

Возможные последствия.

Ну вот для нас с вами.

Вот, например, человек, который плотно начал пользоваться всякими ассистентами.

Упрочнение плохого кода как нормы.

То есть она же не пишет хороший код, она пишет какой-то код.

Если человек в гонке за продуктивностью, а если сказать по-честному, обнимая в засос целую свою собственную лень, обращается, чтобы она за него написала какой-то кусок кода, потом копирует, вставляет, проверяет, вроде все нормально и все.

Это фактически создает привычка, привыкание и, как результат, упрощение плохого кода как нормы.

Некий средний специалист, уже успели померить, что, например, если взять какого-то медицинского работника среднего уровня, не знаю, что такое средний уровень, то он в среднем чуть-чуть реже, чем искусственный интеллект, дает правильный диагноз.

То есть нейросети диагноз дают в среднем лучше.

И вот этот специалист, например, такой типа, ну, не та зарплата, чтобы напрягаться, давайте я буду пользоваться чат-ботом.

И начинает работать через него.

Хорошо.

Но с другой стороны, этот человек, он начинает моментально терять квалификацию.

Он же перестает думать, перестает анализировать.

Он эту функцию отдает на сторону.

Привыкнув к этому процессу, человек как бы...

перестаёт расти.

Ему могут дать должность повыше, но это не значит, что он ей будет соответствовать.

И если когда-нибудь возникнут такие нейронные сети, которые избавлены от всех этих вопросов, о которых я говорю, это ещё хуже.

Потому что если она не будет ошибаться и будет делать хорошо,

Это возникнет огромный пробел между начинающими и профессионалами.

Чтобы уйти в профессионалы, это нужно быть в глазах, грубо говоря, начальника очень долго начинающим.

Потому что среднее звено, вместо него встает нейросеть.

Понятно, да?

Это будет намного тяжелее уйти вверх.

Но сейчас это вообще, конечно, очень далеко.

И в целом я бы не сказал, что много кто этим пользуется.

Потому что, опять же, лень.

Неоптимальный код, лишь бы закрыть задачу.

Очень опасная мысль.

Я крутой, потому что я научился пользоваться этой всей фигней.

Почему?

Потому что, во-первых, кто вылетит с рынка труда.

Молодец, научился.

Следующее собеседование.

А почему ты ничего не знаешь?

Ты же столько много сделал.

Вот.

Какие риски от использования тебя программистами?

Я не то чтобы её спрашиваю как искусственный интеллект, я спрашиваю её базу знаний, на которых она тренировалась.

Первое — это то, что, в общем-то, мне в голову и пришло.

Зависимость может...

привести к ухудшению навыков и знаний, которые программисты могли бы использовать в отсутствии искусственного интеллекта.

Проблемы с безопасностью данных.

Она здесь о чем пишет?

Она здесь пишет о том, что если я буду слишком часто пользоваться этой фигней, этот код, он же не локально проверяется, он же не локально, на основе нашего контекста генерятся предположения, как его улучшить, что с ним сделать, а этот код весь отправляется на сервера.

того же Microsoft, если это GitHub, Amazon, еще куда-то.

Это значит, что они, конечно, пишут, что мы не сохраняем.

Нет, мы не сохраняем.

Зачем нам это все сохранять?

Мы просто, вот оно работает, и все.

Нет, ваш код, он нам вообще не нужен.

Но я бы на их месте сохранял, потому что можно переучиваться и делать лучше.

И, скорее всего, некоторое время они у себя это все в любом случае держат.

А если найдутся какие-нибудь хакеры, а хакеры всегда найдутся, которые заинтересуются и попытаются залезть просто для того, чтобы, например, исходники стащить, этих всех программ, да,

то они могут выяснить, что там есть какие-нибудь вот такие вот вещи, и скачать, и выложить в мир.

Вот смотрите, видите, они сохраняют.

Выложили и выложили, да?

А код-то слился в интернет?

Это вот как личные данные банковские.

У нас все под семью, печатями, под запретами, глубоко под землей, туда-сюда.

А в итоге все наши данные лежат в интернете.

Вот.

Это вот она про это говорит.

А я бы сказал, что вторая проблема с безопасностью данных заключается в том, что если слишком полагаться на это все хозяйство, то поскольку будет генерироваться некий средний код, она же обучается не на суперкоде, а на каком-то.

Это значит, что результирующий код будет тоже какой-то.

А это значит, что его тоже можно будет легко взломать.

А человек, который пользовался этой системой, он даже не поймет, как.

Потому что никогда не интересовался.

Ему не было это интересным, ему нужно было закрыть таску.

Он что-то вставил, и это как-то работает.

Я этим пользовался, например, для чего?

Упала мне как-то задача,

Для ВПФ-приложения что-то там поправить.

Какое-то древнее, чужое ВПФ-приложение.

ВПФ уже мертвый.

Его поддерживают, чтобы как бы легоси-код работал.

Но в целом он уже все.

И большого резона учить ВПФ нет.

Понятное дело.

Мне нужно просто реально что-то поправить.

Как сделать правильный логи-аут, чтобы слева было одно, справа другое, чтобы можно было вот так вот двигать.

Вот, там кнопка, здесь это, здесь то.

И она мне прямо простыню.

Да, действительно, копипаст, короче, чуть-чуть поправил и работает.

Вот, в таких вещах вполне отличный вариант.

Безработица говорит, но здесь я не поверю.

Существуют опасения.

Программистов это не коснется, IT это не коснется.

Это может коснуться обзвоны, банки, мошенничества.

Генерирование огромного количества статей, неважно на какую тему, главное, чтобы люди заходили и смотрели рекламу, а реклама приносила деньги.

Какие-то чаты в Телеграме, каналы с псевдоновостями, какие-нибудь новости, например.

Есть же женские или мужские каналы, женские про детей, про красоту, про фитнес, еще про что-то.

Там мужские бывают про что-нибудь еще.

И про программирование тоже.

Просто чат для дотнетчиков, и там всякие фишки.

И на вход один алгоритм генерирует новости, ну как бы темы, а второй на основе тем генерирует сами новости с кодом.

Ну и народ заходит, движуха какая-то, там что-то админ постоянно что-то пишет.

Прикольно, блин, живое сообщество.

Вот.

Ну и непонятность, как оно работает внутри.

Ну это тоже не очень интересно.

Хорошо.

В чем разница между классом и структурой?

Вопрос на собеседование.

Классические, просто до боли.

У каждого как кость в горле, да?

В C-sharp, конечно же, в чем разница?

Я его спрашиваю, он говорит, ну, вообще не вопрос.

Значимые типы, они все в стеке.

А классы, они все в куче.

И все бы ничего, но это очень популярный ответ, но он неправильный.

Понятно, да?

Вот.

А это значит что?

Что если пытаться по ней обучиться, то будешь обучаться еще некорректным данным.

То есть будешь просто обучаться какому-то мнению, которое она где-то нашла.

Вот и все.

Причем если ее спросить, типа, ну хорошо, а если значимый тип как поле ссылочного сделать?

Она такая, ну конечно же, в кучу уйдет.

Ну, как бы классический поток вопросов на собесе.

Человек ошибся, ты его поправил, он говорит, ну да, да, все, все то же самое.

Снижение качества кода.

И возможность, конечно, расти вширь.

То есть можно в связи с работой получить какие-то задачи и с помощью этой штуки быстренько-быстренько получить небольшой контекст.

Вот, например, мы являемся специалистами в какой-то технологии, там, SPNR, там, туда-сюда.

Вот, а прилетела задача быстренько что-нибудь сваять, используя, ну, например, RMQ.

А мы, например, его не знаем.

Вот задача маленькая, то есть не то, чтобы там какая-то нагрузка, не то, чтобы там какой-то там rocket science, просто там типа сообщение надо отправить и все.

Вот, а мы не в курсе.

Ее спрашиваешь, как на RMQ сообщение отправить на .NET.

Она типа, оп, вот так, копипаст, поправил, все работает.

И если это не является, например, каким-то узким местом, если это ни на что не влияет, если нас устраивает низкое качество, возможно, которое будет получено, то такой вариант использования вполне себе нормальный.

Так вот, вот эта вот фраза, да?

Искусственный интеллект сделает нашу жизнь богаче, ярче, а рутина уйдёт в прошлое, которое мы видели во многих фильмах, во многих книгах, там, в научной фантастике и так далее.

Так почему же парень на фотографии такой грустный?

Да?

Может быть, потому что провода лежат отдельно от ноутбука и не вставлены в него?

Или зубочистки за монитором вместо карандашей?

Или изображение с обратной стороны ноутбука, а ему неудобно работать.

Может, потому что кнопки в один ряд.

Видите, какая там короткая клавиатура относительно монитора?

Но зато у него есть таблетки от депрессии.

Я, кстати, попросил ее нарисовать что-нибудь хорошее.

Таблетки от депрессии она на всякий случай поставила.

Заботливая.

То есть оно, конечно, нарисовало очень красивую картинку.

Но не то.

Да?

Почти то, но не то.

И так по любому вопросу, к любой системе.

к Meet Journey, к чату GPTX, Stable Diffusion, к AI-системам, которые код генерируют.

К любой системе они дадут хороший ответ, но не тот.

Частично не тот, полностью не тот.

То есть в нем есть вероятность, и они об этой вероятности не говорят.

Я попробовал спросить, кстати, вероятность.

Это же умное, типа.

Ну, типа 2 плюс 2.

Какая вероятность, что будет 4?

Она говорит, 100%.

Отлично.

Пенталгин.

Как принимать пенталгин?

Опиши и напиши вероятность правильности этого ответа.

Она мне написала уже не 8, а 6 таблеток.

Она постоянно меняет.

Это неважно.

И написала вероятность 90%.

И так сидишь и думаешь, а 10 — это где?

И 10 ли?

А может, это от балды ответ?

Она же не сидит, не считает, что, ну, наверное, там на пальцах прикинула такая.

Ну, вот здесь вот точно, а вот здесь я не очень точно знаю.

То есть, скорее всего, это ответ тоже от балды.

Вот.

Вопрос-то в этом.

Выгода.

Ну, конечно же, выгода есть.

Выгода, естественно, присутствует.

Это повышение производительности на тех участках, где вам и так все ясно.

Например, те части AI-ассистента, которые, например, вы пишете property, фигурно открывается, а он предлагает getter, setter, вы нажимаете enter, и все замечательно.

Здесь, конечно, дело все будет быстрее.

Если для вас какая-то техническая зона, вот как для меня, она является устаревшей, либо она вас, как вам кажется, никогда больше не коснется, то есть вы мимо чего-то проплываете, и вам что-то нужно сделать, и при этом, скажем так, точность ответа вам не то чтобы сильно важна.

В этом плане окей, оно подойдет.

Если оно не ищется в поисковике, да, в Гугле, ну просто вы уже замаялись.

Вот, а она раз и ответила, вы так присмотрелись, вроде правильно.

Но тут очень важно всегда, ну, домысливать, да, то есть проверять ее.

Вот, то есть, ну, code completion, там не важно что, проверять, то есть она то написала или нет, потому что она может, ну, реально нафантазировать.

Ну и самое главное на самом деле, когда нет необходимости в высоком качестве.

Если есть необходимость в высоком качестве, будьте добры, подумайте сами.

Если нет необходимости в высоком качестве, то, соответственно, норм.

По тому же изображению.

Это очень хорошо, когда генерация изображения нужна для генерации ширпотреба.

Вот это вот хозяйство все, это высокотехнологичный ширпотреб.

Это высокотехнологичные бредогенераторы.

Вот, а потому что, например, ну я же общался, например, с дизайнерами, да, ты с ним общаешься и говоришь, типа, ну вот здесь вот мне не хватает этого, а вот здесь вот это вот.

Вот, и в целом, когда вы общаетесь друг с другом, да, изначально результат намного более правильный, да.

А здесь, скажем так, ну придется...

Очень долго.

То есть я подбирал картинки, которые более-менее... То есть это очень много итераций.

Когда она хотя бы начинает приближаться к тому, что нужно.

Или когда сообщаешься с этим товарищем.

То же самое.

Выдает очень много всякой фигни.

И очень хорошо, что это не токсичный собеседник.

То есть ты когда что-то его, например, уточняешь...

Он не начнет тебе... Просто бывают такие люди, знаете, спрашиваешь человека, вот, а как вот это вот сделать?

Вот, и ты через пять минут уже, в принципе, начинаешь жалеть, что ты вопрос задал, потому что он мало того, что начинает куда-то в сторону уходить, вот, это все на 45 минут, вот, это все сопровождается тем, что те, кто делает по-другому, но они все так себе, там еще что-нибудь такое...

Вот, то есть сделал запрос, получил ответ.

В этом плане, конечно же, это все просто супер.

Вот эту картинку я получал, наверное, после какого-то 50-го запроса.

Я ее попросил, нарисуй, пожалуйста, слева, чтобы был, короче, апокалипсис.

Вот, андроиды, короче, за людьми гонялись туда-сюда.

Вот, а справа

Право.

Хорошая погода, люди счастливые, все дела.

То есть это самое приближенное к тому, что я хотел.

И это будет касаться всех систем.

И GPT, и код-ассистантов, и изображения, и музыка.

Это система генерации, скажем так, высокотехнологичного ширпотреба.

И на мой взгляд, если выводы какие-то делать, если и пользоваться, то с большой аккуратностью, с большим прищуром.

Ну, наверное, как-то так.

Спикер 5

Станислав, спасибо большое.

Интересный вывод из всего этого дела.

Я пока тебя слушал, я вспоминал, ну, так как эти генеративные модели, да, лингвистические, по сути, она придумывает и с какой-то вероятностью ставит следующее слово, да, каждый раз.

В некотором смысле, да.

И...

У меня есть ребенок, я вспомнил, как он рос.

Вот то, что ты говорил про те алгоритмы и инструменты, которые были в 60-х, 70-х годах, когда по чуть-чуть ты что-то получал и так далее.

И теперь, когда вот тот ребенок, который был маленький и вообще не понимал, что он говорит...

Он немножко вырос, но этих механизмов сложного анализа, логики и каких-то принятий решений туда не завезли, а разговаривать она научилась гораздо лучше.

Мне кажется, что они действительно похожи на детей, и доверять этому нужно так же, как и детям.

Дети любят фантазировать.

И они могут фантазировать очень много и качественно иногда.

Поэтому мне тоже кажется, что сейчас пока к этому нужно относиться как к ребенку, который, возможно, когда он вырастет, в него вот это все завезут, и тогда сможет делать что-то качественное и действительно помогать.

Это да.

Спикер 2

Но вот колонки же они уже появились, да?

которые у всех дома стоят.

Там вот стоит эта помощница.

И, например, в том же Яндексе они сделали, что когда там говоришь, Алиса, давай подумаем.

Ни у кого ничего не включилось.

Она переключается на GPT-модель.

И через некоторое время она, скорее всего, станет основной, у которой можно спросить, как принимать металлоген.

И люди будут спрашивать.

Спикер 5

Друзья, давай теперь у нас есть время, перейдем пока к вопросам из зала.

Так, я вижу вот тут первый вопрос.

Слушай, не выкидывайте рецепты, друзья.

Спикер 1

Добрый день.

Вопрос у меня, собственно, вот какой.

Говорилось, и, в общем, справедливо говорилось, что доверять толком тому, что делают нейронки, мы не можем.

Но ведь значительная часть того, чем мы занимаемся, она ведь так или иначе сводится к тому, что люди что-то делают, а компьютер контролирует, как они работают.

Вот вопрос.

Где эта грань?

Почему мы думаем, что мы нейронки можем доверять меньше, чем людям?

Спикер 2

Но грань-то в чем?

Вот, например, когда я общаюсь с базой данных, я ожидаю, что она мне выдаст ровно то, что я попросил, а не с некоторой вероятностью.

Если она мне будет с некоторой вероятностью выдавать какие-то строчки, я, конечно же, просто удалю и все.

Когда работает процессор, я ожидаю, что при сложении двух чисел будет именно сумма, а не с некоторой вероятностью какое-то число.

И когда мы взаимодействуем именно с компьютерами, неважно с чем, мы ожидаем от него, от этой системы, я лично привык ожидать, что он выдаст ровно то, что я просил.

Да, когда я общаюсь с поисковиком, у меня уже нет таких ожиданий.

То есть он выдает какие-то ответы, где присутствует примерно то, что я попросил.

Но я понимаю, что это поисковик.

А когда мне декларируют, что это искусственный интеллект, я начинаю от него уже требовать что-то более конкретное.

Они просто декларируют это, искусственный интеллект.

Они это декларируют для того, чтобы это продавалось.

Для того, чтобы это хайповало, бродило наши умы и так далее.

Подобные акции росли, кто-то богател.

Неважно.

Если бы они, например, говорили, что... Вот вы спрашиваете, вот код, как его, например...

сделать лучше.

А она такая, типа, ну, этот код можно сделать лучше вот так, но этот ответ правильный с вероятностью 75%.

С одной стороны, человек подготовлен, да, и подготовлен к тому, что это может быть не очень корректно, и можно поправить.

Но с другой стороны, конечно же, они на этом потеряют продажи, потому что человек просто закроет, типа, ну, там, 75 здесь, 25, ты, ты.

Ну, вот.

То есть мой посыл в том, что я не требую от генератора изображения генерировать точно то, что я попросил.

Тут понятно, это слишком сложно.

Но то, что общается со мной на моем языке и дает ответы из разряда «это точно так»,

Я ожидаю именно такие ответы, особенно на какие-то реально вопросы, которые могут влиять на что-то.

Если я программист, я жду, что мне реально помогут.

Они сделают код хуже.

Тем более, что если я обращаюсь в нейросеть, скорее всего, я не понимаю, как сделать этот код лучше или хуже.

Я ее спрашиваю, она мне отвечает.

Ее написала какая-то крупная компания с большим именем, там много инженеров, они получают большие зарплаты, много думают, наверняка умнее, чем я.

Да?

Вот.

И вот эта система, она, ну, на простейшем ходе мне предложила что-то улучшить.

Вот.

Но она улучшает это с некоторой вероятностью.

Вот.

Поэтому тут именно в этом, скажем так, претензия.

Спикер 5

Хочу от твоей скепсис увеличу.

Людям ты тоже на 100% доверяешь?

Спикер 2

Человек — это человек.

Это биологическая фигня.

Я не тебе лично, я в целом.

Я биологическая фигня.

Вот.

И, скажем так, ну, человеку свойственно ошибаться, это к этому мы уже привыкли.

Вот.

Я ошибаюсь, все ошибаются.

И когда кто-то ошибается, мы говорят, ну, мы же все мы люди.

Спикер 5

Может, мы также привыкнем, что компьютеры ошибаются?

Спикер 2

Вот.

А компьютер ошибается, ну, как бы это уже немножко другое.

Вот.

Тут как раз и есть эта грань.

То есть мы вот до этого не встречали вероятностной логики, да?

Спикер 5

По сути, да.

То есть, как ты и говорил, что это полноценное утверждение.

Спикер 2

Да, она говорит, вот это точно так.

Ты говоришь, нет, не так.

А, ну, значит, не так.

Ну, как бы, я не этого жду.

То есть, я, получается, могу скорректировать ее верный ответ на неверный, и она тоже согласится.

Спикер 5

Да.

Спикер 3

У нас еще вот здесь был вопрос.

Спасибо.

Это, наверное, самые красочные доклады, красивые за всю конференцию.

А вопрос такой.

Какой процент контента этого доклада был сделан с помощью нейросетей?

Спикер 2

Вся правая часть и картинки.

У меня была изначальная идея, что я ей предлагаю доклад.

Доклад по драматургии имеет, например, семь стадий.

Введение, заключение, конфликт, экспозиция.

Вот эти стадии.

Я спрашиваю, какие стадии.

Она пишет стадии.

Я описываю тему, говорю, напиши экспозицию.

Она мне текст.

Я хотел разделить пополам.

И справа ее вариант, слева мой вариант.

Она настолько хрень всякую начала предлагать, что я ее сделал намного меньше и сделал более такие вопросы уже под конкретные слайды.

А слайды в итоге сделал сам.

Спикер 5

Слушай, а ты не обращал внимания, что она с текстом на картинках как-то очень плохо справляется?

Спикер 2

А это уже вроде пофиксили там у них.

Раньше были иероглифы инопланетной цивилизации.

Спикер 5

Так, друзья.

Еще у нас есть вопросы.

Спикер 4

Здравствуйте, спасибо за доклад.

Отличный доклад после обеда.

Ну, в общем-то, у меня такой вопрос.

Недавно на Southworks в техрадаре почитал про домен специализированный LMS.

То есть можно обучить нейросетку уже где-нибудь на on-premise организации домену специфичному для этой организации, да, и

Что вы думаете насчет такой идеи, как ассистент по анализу для, допустим, какой-нибудь страховой компании, где всю аналитику можно было бы сгрузить в эту нейросетку, она бы, скажем так, обучилась уже внутри организации, это он премис, здесь безопасность учитывается, насчет...

скажем так, анализы, и такой кейс приходит на аналитик, спрашивает, а как у нас кешируется там условно в скоринге данные по страхователю, и он отвечает ему одним предложением, что там условно 4 параметра основные, там FIO и DRE.

И это заметно сокращает коммуникацию внутри компании.

Вот что вы думаете насчет в качестве такого применения LMS и развития?

Спикер 2

Это применение, оно, ну как бы сейчас скажу, там, где не важна точность,

Это хорошо.

Но, например, вот есть доклад Игоря Ашманова.

Очень советую.

Я думаю, что практически все знают это имя-фамилию.

У него есть доклад.

В этом году он его снял.

И там он приводит очень хороший пример.

Говорит, банки сейчас внедрили нейросети у себя на «Проде».

И эти нейросети, они этим страшно гордятся, они, короче, решают, выдать вам кредит или нет.

Да, там огромное дело сократили, потому что это нафиг не надо теперь людям считать, она сама все делает.

Но с другой стороны, человек, который хочет получить кредит под что-то, и когда он получает его условное решение за 45 секунд,

Это значит, что решение приняла машина на основании не пойми чего.

Это нейронная сеть.

Она с некоторой вероятностью решила, что вы, скорее всего, например, не подходите.

Вот как GPT.

Но он же подходит.

А, ну значит, подходит.

Спикер 5

А ты замечал, что они не дают скоринг, если у тебя данных о тебе нет?

То есть если у тебя нет кредитной истории, тебе кредит не дадут.

Спикер 2

Да, я ее спросил, с какой вероятностью я мужчина.

Она сказала, что это не очень понятно, поэтому я ничего не скажу.

Хотя могла ответить 50 на 50.

Спикер 5

Друзья, у нас подошло, к сожалению, время, когда мы можем отвечать на вопросы из зала.

Но я приглашаю вас всех в дискуссионную зону, где Станислав раскроет еще больше секретов и четкой логики наших новых современных нейросетей.

Спикер 2

Да, спасибо.