То мы уже знаем про выпуск GPT-5, радоваться нечем. Новый сезон баталий, Маск против Альтмана. Очередные прорывы в ИИ видеогенерации, опенсорс и не только. Люди-роботы, привет, это Протсовет. Очень много новостей вышло за эту неделю.
В первую очередь от OpenA, выделим приличный кусок этого выпуска, компании. И давайте начнем, может быть, не с самого главного, но с самого первого и самого противоречивого. Вот такую рекламу OpenA показала на Суперболле. Кто не знает, Суперкубок проходит.
В Штатах огромное количество рекламодателей презентуют свои рекламы, практически там соревнования рекламщиков, нежели чем соревнования... Что на Суперкубе? Нежели чем соревнования футболистов, регбистов, НФЛ, ну вы поняли. Попыталась компания здесь показать весь прогресс, который претерпело человечество. И что интересно, видите, тут кони скачут, земледелие развивается.
Что еще? Вот паровозы, дальше телевидение, разумеется. покоряем космос, ну, посмотрите, на досуге рекламу, и все это зафиналивается чатом GPT. То есть, по мнению компании, именно чат GPT стоит во главе, ну, или в конце, или в начале, в конце всего в Зените. Именно чат GPT является апогеем человеческого прогресса, ну, вот на данный конкретный момент.
Очень много полярных мнений было на этот счет. Кто-то вот предлагает компанию P&A использовать GPT-4O для того, чтобы как-то прорабатывать свои маркетинговые компании лучше. Кто-то просто откровенно критикует, ну, потому что абсолютно непонятно, какой месседж обывателю, человеку, который пришел посмотреть футбольчик и пожевает попкорн за пик пивком, какой месседж доносится в этой рекламной компании, не показывается ни одного интересного применения, но, с другой стороны, были и другие мнения о том, что действительно классная, интересная, такая достаточно... увлекательная анимация была представлена OpenAI.
И, кстати, они все это дело чудо сделали при помощи ссоры в том или ином виде, запрототипировали, а потом, конечно, при помощи разных уже человеческих усилий доредактировали дополнительный рекламный ролик. Напишите, что думаете в комментах, понравилось ли вам, как OpenAI справились с этой задачей. А, кстати, задача-то сама стоила 14 миллионов долларов.
Можно было отдельный дипсик натренировать. за эти деньги. Не забывайте, что вы можете поддержать наш проект, подписавшись на канал, оставив комментарий, поставив лайк.
Комментарий можете написать из трех и более слов. Спасибо. Разворачивается новый сезон всеми нами любимого сериала. Альфман против Маска.
Не могу себе представить, когда в следующий раз вот будет запечатлен такой кадр. Это, как вы видите, по молодым, юным и хотел сказать зеленым, молодым лицам участников этого кадра. Что произошло в этот раз? Маск предъявил так называемый бит практически на 100 миллиардов долларов.
Ну, то есть, сделал заявку на покупку нон-профит части OpenAI. И это все достаточно интересно по некоторому количеству причин. Начнем с того, что, разумеется, Альтман сразу ответил, что нет, спасибо, нам такое не надо, неинтересно, давай я лучше куплю Твиттер за миллиарда долларов.
Ну, в общем, саркастичный такой... Ответ был сразу Альтманом высказан. Но вот, что на самом-то деле значит эта заявка на покупку отмазкой.
Она сильно усложняет процесс перехода OpenAI из некоммерческой организации в коммерческую. И вот я наткнулся на такой достаточно хороший твит, который это все объясняет. Можем вот сразу долистать до этой чудесной картинки, на которой видно, что на данный момент OpenAI Non-Profit владеет OpenAI For-Profit.
То бишь некоммерческая организация владеет подразделением коммерческим. Альтман же хочет перевести OpenAI целиком и полностью в коммерческий режим для того, чтобы можно было продавать акции, привлекать финансирование от инвесторов, иметь какие-то более капиталистические отношения со своими стейкхолтерами. И в чем здесь дело? Учитывая, что нон-профит сейчас владеет фо-профит, и для того, чтобы вывести фо-профит из-под крыла нон-профит, нужно что-то этому дать взамен. Деньги.
И по текущим оценкам, последним данным, которые мне удалось найти, некоммерческая организация должна получить 25% акций. Если сейчас компания оценивается в 260 миллиардов долларов целиком, то некоммерческой организации нужно выдать 60 миллиардов. Ну, по сути, выкупить вот этот for profit из-под ее управления. Если Маск делает ставочку в 100 миллиардов долларов, это значит, что инвесторы по... не очень там простому и банальному законодательству штатов, но как минимум могут это рассмотреть.
И как минимум кто-то из совета директоров, может быть, и захочет обкашиться и забрать вот такое чудесное... предложение. Главный тейк Маска в том, что нужно остановить вот эту переорганизацию.
Он по-прежнему продолжает гнуть линию о том, что компания нарушает свои первоначальные уставы, не делает открытый и open, как мы знаем, называется компания, и вот занимается вот этой всей коммерциализацией продажи продуктов и наживой на бедных наивных пользователей. Ужас. Новый сезон начался, это было там первая-вторая серия, так что следите, будем следить и подписывайтесь на нашу телегу, там оперативнее все разбираем. Интересно, чем это закончится, официальных опровержений или официального отказа от совета директоров OpenAI пока что не последовал. Если вам хочется не только наблюдать за развитием ИИ, но и использовать топовые Gen и IA инструменты, то могу порекомендовать бота, в котором собрано большое их количество.
GPT for Telegram. бот. Самый большой бот в Телеграф с прямым доступом к лучшим нейросетям.
Вам не нужно регистрироваться на десятках сайтов, ломать голову с верификацией, все собрано в одном боте, все под рукой. Смотрите, что тут есть. Во-первых, топовые нейронки, топовые лэнки, про которые мы постоянно говорим, конечно, от OpenAI, включая O1, O3 mini, есть Perplexity, есть DeepSeq.
И чтобы ботом начать пользоваться, не нужно покупать подписку до 100 запросов бесплатно каждую неделю в gpt4o mini либо Gemini 2.0 Flash Thinking и также DeepSeq v3, DeepSeq R1 без ограничений сколько вам вздумается используем взаимодействие с ботом реализовано понятно удобно минималистично мне понравилось например чтобы вызвать предплексы которые тоже доступны бесплатно просто вводим команду s и получаем ответ со всеми ссылками Недавно добавили функцию создания аватара всего по одной фотке. Вот так загружаете лишь одно селфи и получаете, в зависимости от выбранного стиля, 100 разных фотографий, такой фотосет. Конечно, ничего ты не знаешь о Джон Сноу, мне кажется, получилось здесь отлично. Прикручен клинк, прикручена пика, чтобы развлекаться с видеогенерацией.
Ну, а если вы любите творчество и музыки, то есть и суна, чтобы ваши задумки воплощать. Ссылка на Telegram-бот находится в описании. Переходите, кликайте и используйте Gen.ai без ограничений. Ну а что же происходит внутри компании?
Наконец-то, наконец-то. Ну, наверное, сознали-то они это достаточно давно. Но вот к решению такому пришли сейчас, и это, с одной стороны, хорошо, а с другой стороны, не очень. В Телеге сделал пост и сразу же все перевел. Давайте быстренько посмотрим.
Сам Альтман поделился дорожной картой. Тем, что компания хочет... менять в ближайшем будущем и релизить в ближайшем будущем. Как говорит OpenAI, следующий релиз GPT-4.5.
И это последняя не reasoning модель, которую представит компания. Она идет под кодовым именем Orion внутри OpenAI, и вот будет в течение недель. Недель каких-то, непонятно, но было сказано недели самым Altman.
Далее GPT-5 тоже планируется зарелизиться. Это будет такая солянка из модели O3 и, как они говорят, a lot of our technology. То есть это будет что-то такое смежное между ризнингом и неризнингом.
И она будет выпускаться в API и в интерфейсе. И что самое важное, отдельно O3 продаваться никак не будет. Что здесь хорошо?
Ну, как минимум, хорошо то, что не будет вот этого сумасшедшего кликера в чат GPT, где вы пытаетесь разобраться, какую же модель выбрать, особенно если вы не суперопытный пользователь. Не всегда понятно, а что же и как же и чем пользоваться. Моделей там уже 4-5 или больше штук. OpenAI хочет это упростить, упростить название, упростить вообще процесс работы с их сервисом для пользователей не суперосведомленных и погруженных в тему.
Что не очень хорошо, так это то, что, во-первых, GPT-5 это не какой-то масштабный скачок неризминг-моделей. Это просто, по сути, то, что мы уже с вами так или иначе, ну... не трогали, но понимаем, что это такое.
Это не какой-то прорыв в технологиях. Это умело собранная система из нескольких моделей, которая действительно будет ощущаться, наверное, как очень и очень крутая нейронка, крутая модель. Но я думаю, многие, я в том числе, ожидали, что будет дальше масштабирование вот этого не-резонинг направления. У нас был очень сильный скачок от G5.3 до G5.3.5, от до 4.0, и вот пока что, кажется, в этом разряде мы как-то Дальше компания будет масштабироваться уже за счет Inference, за счет вот этих думающих моделей.
И пока что вот такой план у нас перед глазами есть. Но будем ждать. Все-таки их цифр нет, как всегда, но хоть какое-то общее представление на этом. Спасибо.
Несколько еще обновлений было от OpenAI по Deep Research. Во-первых, Haltman пообещал выкатить эту штуку на 10 использований в месяц для ChatGPT подписчиков плюс и 2 использования в месяц для фритира. Ну...
Очень сомнительно, что этому хоть какую-то можно из этого выгоду извлечь. Пока научишься, ты там уже свои, не то что 2, уже и 10 использований потратишь. Но чтобы вот как раз-таки не тратить в холостую эти запросы, посмотрите наш выпуск про Deep Research, который мы выпустили на этой неделе. Как промптить, что промптить, что это себе представляет, что можно, а что нельзя. Более того, на мобильных устройствах появился Deep Research.
То есть на самом деле... Это уже прикольно. Прям на ходу взяли, возможно, даже наговорили голосом, не знаю, как это будет работать с голосовым, voice mode, точнее, скорее всего, будет работать, просто диктовали голосом ваш запрос, и моделька пошла там размышлять, искать в сайтах, чего-то генерировать, обобщать и вам возвращать. Пользуемся. Чуть-чуть о чипах.
Что-то я тут даже забыл картинку вставить. Но интересно то, что OpenAI уже близки к завершению так называемого tape-out. отправки дизайна чипа на фабрику. Чип они разрабатывают во главе с Ричардом Хо, в сотрудничестве с Broadcom, который Ричард ранее возглавлял разработку собственных AI-чипов в Google.
TSMC все это будет чудо производить, используя трехнанометрового техпроцесса. И, конечно, все это делается для того, чтобы как-то немножко свою зависимость от NVIDIA, прожорливой до денег своих клиентов, снизить. Такая новость.
Интересно, что OpenAI действительно работает в разных направлениях, в направлении... и в хардверном для пользовательского, и в хардверном для компании, для скейлинга своих моделей. Следующая интересная новость от компании open source.
Не тот open source, которого мы, скорее всего, с вами ждали, хотя наши ожидания наши проблемы, но компания выпускает модуль спек, так называемый, точнее, обновленный модуль спек. Этот модуль спек уже был, но сейчас они его доработали, и вот можно посмотреть, как в этом спеке соответствует определенным параметрам их моделька O1. По всем показателям, практически по всем показателям, кстати говоря, она лучше, чем GPT-4O. Что это из себя представляет?
Это набор таких принципов, установок, как OpenAI конкретно хочет, чтобы их модели взаимодействовали с пользователем. Вот тут несколько примеров, но обобщить это можно тем, что компания делает упор на настраиваемость, прозрачность и интеллектуальную свободу. Это кажется чем-то немножко... интересном и отходящем от всех тех строгих регулировок, которые в целом внедряют другие компании, например, Антропик.
Вот такая цитата есть в их статье. The principle that no idea is inherently of limits for discussion. То есть никакая идея, какой бы она противоречивой ни была, не является вне допустимого. Главное, чтобы не причинялось никому вреда. Вот это тоже здесь компания отмечает.
Можно посмотреть, что это за Model Spec. На GitHub они выпустили. Там в первую очередь, как я понимаю, промпты, которые оценивают вот именно поведение модели по вот этим самым заданным критериям.
Поэтому если вы вдруг разработчик, либо просто хотите поглубже в это дело погрузиться, посмотреть на промпты от OpenAI, то можно сходить на GitHub, да, все это чудо глянуть. Я говорил, что будет много новостей от OpenAI, и это, кажется, уже последняя, ну или практически последняя. Полезности.
Опять же вернемся в нашу телегу и быстро покажу, что это за полезность. Наконец-то компания обновила документацию по работе с резвинг-моделями. Я вот здесь вот в телеге выписал несколько поинтов из самой статьи, для чего компания рекомендует все это использовать именно резвинг-направление. Решение запутанных задач, needle-haze tag, поиск взаимосвязи в большом массиве данных, стратегия планирования, резвинг на основе визуальной информации, что, кстати, интересно.
Добавили визуальный резонанс, возможность моделькам воспринимать картинки для O1 и O3 mini. Ну и понятное написание кода, дебаг, улучшение оценки, бенчмаркинг. Полная статья, ссылочка у нас тоже здесь есть. Кстати, можно зайти в документацию и подумать, как это включить. Это относительно очевидно.
Есть еще несколько рекомендаций, как промотить модели. В целом они достаточно. Понятный?
И, кстати, по большому счету, все это мы уже проговаривали либо в роликах, либо в сообществе на закрытых эфирах, поэтому информация известная, понятная. Мы оказались в этом плане быстрее, чем OpenAI. Плак, бэйби, плак. Вот с таким интересным тезисом Макрон иронизировал или, скажем так, сделал отсылку к слогану Трампа «Дрил, бэйби, дрил». Макрон говорит «Плак, бэйби, плак».
К чему это все относится? К тому, что Франция будет... ускорять, стараться в усилии в области AI направить 109 миллиардов в течение следующих нескольких лет на, понятно, инвестиции в инфраструктуру.
Инвестировать будут ОАЭ, Брукфилд, некоторые еще компании на сумму 83 миллиарда. То есть внешние инвестиции будут тоже привлекаться. Ну и, конечно, Мистер Алл и еще некоторые другие французские стартапы являются здесь главными бенефициарами. Но почему плак-бейби-плам?
Потому что Макрон уповает на атомную электроэнергию, энергию, говоришь, на спартаке. полно возможностей, полно электроэнергии, ничего бурить не надо, нужно просто все это дело в розетку вставить и беспощадно дата-центры питать. Эта речь шла в преддверии саммита, AI Actions Summit, который прошел во Франции на этой неделе, и на котором, помимо тех инвестиций, которые объявил Макрон, было еще докинуто 200 миллиардов через инициативу Invest AI. Гигафабрики собрался строить Евросоюз на 100 тысяч AI-чипов. ну, в принципе, сопоставима с тем, что есть у одного Илона Маска.
Там где-то гаража своем разместил. Ну, вот Евросоюз тоже 100 тысяч чипов готов приобрести, да, в общем-то, поставить, создать гигафабрики. Почему вообще я про это так говорю, упоминаю?
Ну, Евросоюз известен своим строгим регулированием, и если вы находитесь где-то в Европе, то замечаете, что все фичи, которые выпускаются компаниями, доходят до Европы не супербыстро. Тем не менее, на мировой арене вроде как... появляется еще один большой игрок.
США, Китай, Европа будут смягчать свое регулирование, судя по всему. И, в общем, раскритиковали американские представители, Джей Ди Вэнс, строгое регулирование, в том числе некоторые европейские представители. Макрон тоже на этом саммите говорил про то, что, ребята, хватит беспощадно упарываться в пластиковые крышечки, давайте регулирование немножко поубавим и начнем нормально конкурировать со Штатами, да, с Китаем. Возможно, новый стартап.
или старые стартапы относительно, тот же Mistral, сумеет что-то более интересное показать и тоже выйти на действительно передовую развитие новых моделек. Ждём. Империя наносит ответный удар.
Ну, Anthropic наносит ответный удар, но тоже вполне себе Империя. The Information сообщает о том, что у Anthropic всё на самом деле прекрасно. Не то, что мы думали.
У них там втихую готовится уже к выпуску гибридная модель. То есть... тот самый а-ля GPT-5, по заявлениям The Information, превосходит рассуждающая модель O3 Mini High от OpenAI, и это уже будет та самая гибридная модель.
То есть они не пошли по этому странному пути, потому что не странному, но тем не менее пути распределения, разделения reasoning, неризонинг и нагромождения вот этого невероятного количества разных названий будет скользящая шкала. То есть вы можете не просто выбрать high, low, medium уровень интеллекта, компьютера, времени, которое модель тратит на размышления, но буквально там 1%, 2%, 100%. Это очень интересно, а Тропик в целом всегда радует своим немножечко немейнстримным подходом к развитию сервисов и технологий. Посмотрим, что они представят. Тут у меня не отмечено, но информация была о том, что в течение нескольких недель можно ожидать...
таких релизов. Антропик на этой неделе не прохлаждался на самом деле. Еще компания выпустила вот такую новость, индекс, экономический индекс Антропика, где они в анонимном порядке взяли кучу чатов с пользователями, проанализировали все запросы и пришли к достаточно интересным выводам.
Во-первых, использование ИИ больше склоняется к augmentation, как они говорят, к дополнению, нежели чем к автоматизации. То есть, когда человек работает... работает с моделькой для того, чтобы достичь какого-то результата, и работает вместе. Интересно достаточно было узнать вот это распределение тех направлений, где, как, в каких профессиях используется антропик.
В первую очередь, конечно, computing, computer and mathematics, то бишь что-то связанное с кодингом, с вычислениями, с работой с компьютером. Потом идет arts and media, художество, копирайтинг. Потом и образование, библиотека, и там дальше офисная административная история.
Кстати, я удивлен. Я думаю, что там вообще офисная административная, можно очень много интересных применений найти. Вот такой вот график по распределению использования антропика в зависимости от количества вами зарабатываемых денег.
Что самое, может быть, неожиданное, а может, наоборот. Относительно логично, решите сами. Но именно те, кто зарабатывают среднее количество денег, там от 50 до 75, до 100 тысяч долларов в год, вот медиан 60 тысяч долларов, медианное значение, они используют больше всего в своей работе модельки, нейронки, ЛЛМки.
Те, кто зарабатывают бешеные деньги, там вроде 200 тысяч, не используют практически совсем. А те, кто зарабатывают очень мало, шампулюс, я не знаю, что на предыдущие шампулюс, но вот они зарабатывают, они используют нейронки тоже мало. Ну и тут, в принципе, аналогичное распределение, количество людей, занятых в этой профессии, и количество разговоров в коде людей этой профессии от общей выборки.
Такие дела. Как говорится, на словах-то Илон Маск, а на деле надо проверить. Но Илон Маск в очередной раз на каком-то саммите заявил, что Грок 3 до с ужаса уже сам... Умён и превосходит все до этого ранее выпущенные модели.
Грок 3 натренирован на невероятном количестве синтетических данных и с использованием невероятного количества компьютера. И, конечно, будет выпущен в ближайшую недельку или две. Тут есть некоторое количество скепсиса, мне кажется, и у меня, и, может быть, не только у меня. Маск очень любит всем что-то заявить интересное, громкое, но потом на деле получается, что получается.
Поэтому посмотрим, подождем, оценим этот чудесный Rock 3. Но, как я уже говорил выше, есть некоторые сомнения в том, что и лабы способны сейчас показывать именно такие scary smart, то бишь ужасно умные до страха, до трепета модели. Кажется, что все-таки такие гигантские скачки, как мы видели от GPT-3 до GPT-4, не наблюдается, не видно. То же самое, между прочим, и с Google, который выпал.
выпустил на коршун деле Gemini 2.0 Pro, их по большому счету модель нового поколения, ну она в топе, как бы все в топе, но не на голову выше. Коротенько про обновление Windsurf, если нас смотрят веб-кодеры, продолжаем в том же духе, я с вами, но вот Windsurf представил третью волну, и здесь совсем коротенько несколько интересных штук, вводится поддержка MCP, я про это в целом говорил в прошлом ролике, добавляют функцию drag and drop для ввода изображения. В общем, можно спокойненько закидывать туда изображение наконец-то. То есть, в интерф чуть-чуть как будто на шаг позади курсора, но вот здесь с этим обновлением как будто и догнал. Неограниченные предложения автокомплит и суперкомплит доступны всем пользователям.
Вот это прикольно. То есть, даже если вы бесплатный пользователь, насколько я понимаю, вы можете нажимать на эту кнопочку так, и код будет сразу дописываться в строке, где вы работали. И также включает поддержку новых моделей DeepSeq V3, R1, O3 Mini, Gemini 2.0 Flash с различной стоимостью кредитов.
Перплекс не заставил себя ждать, порадовали нас приятным обновлением. Тоже добавляют DeepResearch, который очень и очень неплох по своим показателям, параметрам. Быстро посмотрим, что же это такое. Во-первых, доступна функция, ну вот по такой кнопочке, понятное дело, доступна функция бесплатно, в отличие от того, что нам представила... OpenAI.
5 запросов в день получают все пользователи и, по-моему, до 500 те, у кого есть подписка плюс. Чем отличается Depressurge Perplexity от Depressurge OpenAI? Ну вот помимо сказанного.
Тратит по 1-2 минуты. До 3 минут в X компания написала, что гораздо быстрее, чем то, что делает OpenAI. Ну как это работает, я думаю, вы примерно представляете по аналогии с тем, что мы уже смотрели. Что интересно, есть вот такая кнопочка «Экспорт» в PDF, Markdown и что-то еще там было, чего нет сейчас у OpenAI, приходится все это ручками копировать. В общем, здесь сервис выглядит чуть-чуть более...
А, еще в Perplexity Page можно сразу закинуть. Выглядит чуть более такой готовый сразу уже в продакшен. Не сырой вариант. Вот, пожалуйста, в PDF можно Deep Research забрать.
По бенчмаркам моделька показывает себя хорошо. Здесь они сравнили Humanity Last Exam. И она находится на втором месте, уступая Deep Research Open AI, ну, там, несколько процентных пунктов, в районе, там, 4 или 5, что действительно хороший показатель.
Я не нашел, какую конкретно резонинг-модель они используют под капотом. Тут вот они сравнивают с O3 Mini, Deep Seek R1, может быть, там, R1, может быть, O3 Mini High. Основное отличие все-таки Deep Seek Open AI в том, что там O3, полноценная, крутая, большая резонинг-модель.
Чего тут у Perplexity непонятно. Но прекрасное обновление, которое создает дополнительную конкуренцию, может быть, заставит OpenAI поскорее раскатить для всех этот Deep Research, ну, либо как-то эти лимиты подубрать и сделать более демократичные прайсы. На что будем надеяться. Переплягсти, молодцы.
А и видео. И это, честно говоря... Полный, в очередной раз я снова сильно и громко, и во всеуслышание удивляюсь тому, что могут делать модели. Смотрите, во-первых, Google выпускает в EO2, добавляют, ну как выпускают, выпустили давно, добавили в YouTube Shorts. Теперь вы можете использовать это там, вот в FX Studio, говорят тут твиттерские.
Работает вроде как быстро, очень быстро, то есть возможно не какая-то там урезанная модель, дистиллированная, дистиллированная, дистилт. вы меня поняли, работает быстро и работает, конечно, тоже хорошо. Так что, в целом, вот таким образом сейчас можно попользоваться Vio 2, если до этого не пользовались.
Не идеальный вариант, вертикальный формат, но вдруг вы только вот такие ролики снимаете, не то что мы ютуберские, поэтому welcome. Другая модель под названием Goku от ByteDance, то бишь от TikTok, выпущена. И выпущена в первую очередь, как я увидел, понял...
в виде пейбера, то есть не нашел, где его пользоваться. Ну, или она оподсорсная, если, знаете, раскатить и раскатить можно. Огромное количество крутейших примеров, модель, ну, поражает своей реалистичностью во многом.
Вот все те самые, наверное, уже узнаваемые кадры по релизам от OpenAI. Тут просто берут такие же промты и показывают, как они работают. Ну, где-то они супер реалистичны действительно, а где-то, получается, очень и очень реалистичны и с качественными объемными...
долгими движениями, в общем, артефактов прямо так на первый взгляд незаметно, и Goku+. Goku+, это то, что, в принципе, вы здесь уже видите. То есть, можно как бы фантюнить или лорить эти модели, чтобы они показывали ваш продукт.
То есть, для маркетологов это вообще невероятное пространство для творчества и создания контента появилось. Так что нужно, конечно, осваивать такие модели. Пока, да, пока как бы в вебе не попользоваться, но в подсорчестве скачать, я думаю, можно.
Это далеко не все. Еще Loom нас порадовала ... новыми функциями. Вот Ray 2 моделька, точнее, Ray 2 моделька выпущена уже какое-то время назад, сейчас добавили возможность генерировать между двумя кадрами. Посмотрите, насколько качественной анимацией можно уже...
То есть любое аниме, любой мультик, любой вообще проект, ну, все можно сделать уже сейчас при помощи генеративных нейронок. Это очень, конечно, круто поражает и даже вдохновляет. Даже меня, человек, который не супер этим интересуется, но попробовать. Более того, Adopt пришел с обновлением Firefly, они добавили новую модель Firefly Video. То есть у них что-то было, по-моему, про видео, но как-то это все где-то затерялось, и мало кто этим пользовался.
Сейчас они говорят, что это все коммерчески пригодные, замечательные, классные модели, и тоже у них есть генерация между несколькими фреймами, что, конечно, прикольно. Черепикнутые ролики выглядят классно, но, как мы знаем, это черепикнутые ролики. 1080p...
И скоро появится 4К разрешение. Есть несколько вариантов подписок. 10 долларов, 30 долларов.
Ну и вот такое количество кредитов выдается всем пользователям. Мне, конечно, нравится в Adobe возможность все это дело интегрировать. Вот здесь видите в каком-то Neo Project.
Честно говоря, даже не знаю, что это. Но, тем не менее, сделали маяк, потом взяли, еще сгенерировали картинку, а потом эту картинку еще пам-пам-пам. Вот так вот и анимировали.
Получился полноценный интересный ролик. Классно. вот здесь, в релизе. На деле Игорь Ад сказал, что не суперидеально.
Тестировал, в Telegram тоже делали пост, посмотрел. Могло бы быть и лучше, но вот если это в Premiere все запихают, и, в общем, действительно это будет еще такая хорошая, плотная экосистема, тогда можно этим пользоваться, но пока что, наверное, есть более качественные решения и варианты. Ну и, наконец, SEO говорит. Для начала SEO OpenA, C-Module выпустила очередной блок-пост с названием Three Observations.
три наблюдения. Что же это за три наблюдения? Первое. Интеллект, моделик AI лакарифмически масштабируется с ресурсами, используемыми для обучения и инференса.
Ну, глаза прям открыл. Стоимость использования AI снижается экспоненциально примерно 10 раз в каждые 12 месяцев. Окей. Цифры, может кто-то их слышал, может кто-то нет.
Социально-экономическая ценность повышения интеллекта AI суперэкспоненциально. Прям супер. Вот такие очень позитивные тезисы нам говорит Альтман.
В то же время другой CEO говорит, я думаю, вы узнали, что CEO Антропика, также тремя пунктами и даже тремя вопросами. Как все это дело сделать безопасным? Угрозы безопасности, экономические преобразования и демократическое лидерство стран, которые развивают искусственный интеллект. Но что будет?
В плохие тоталитарные руки Очень умные модели не попали. Вот про что говорит Дарио. Неспроста Антропик выпустили экономический индекс.
В этом направлении уже, видите, какие-то действия совершаются. И, кстати, Дарио Мадеи раскритиковал тот саммит, который прошел в Европе, по которому мы тоже говорили в начале выпуска, сказав, что, в общем, все банально, все понятно, но вот эти вот три пункта, в особенности, как-то не обсуждаются, но либо не прорабатываются реальные шаги к тому, чтобы... это все достигалось. Мне очень импонирует подход Дарио Мадея.
Может, это мой какой-то внутренний тревожный кто-то там технопессимист сидит и побаивается того, что OpenAI не сильно и не всегда глядывается на безопасность, и Althropic больше в этом направлении работает. Как всегда, приглашаю вас в комменты обсудить, что вам нравится больше, кто вам нравится больше, чей подход больше нравится. Вот такой вот прорывной OpenAI.
либо чуть более закрытый, чуть более медленный, постепенный, как это исполняет антрот. Ну а на этом у меня все. Все полезные ссылки находятся в описании этого ролика.
Подписывайтесь на канал, оставляйте лайки, комменты. Не пропускайте новые выпуски. Увидимся! Субтитры сделал DimaTorzok