Адрес для входа в РФ: exler.wiki
Компания OpenAI представила ChatGPT Search. Утверждают, что, цитирую:
Теперь ChatGPT может осуществлять поиск в Интернете гораздо лучше, чем раньше. Вы можете получать быстрые и своевременные ответы со ссылками на соответствующие веб-источники, для получения которых раньше нужно было обращаться к поисковой системе. Таким образом, преимущества естественного языкового интерфейса сочетаются с ценностью актуальных спортивных результатов, новостей, котировок акций и многого другого.
ChatGPT сам выберет поиск в Интернете, основываясь на вашем вопросе, или вы можете вручную выбрать поиск, нажав на иконку веб-поиска.
У меня ChatGPT платный, поиск этот там появился.
Но я пока, если честно, не понял, чем это отличается от обычного запроса к самому ChatGPT. Ведь в обоих случаях он шерстит разные источники и выдает ответ.
Попробовал сравнить - просил выдать план поездки на юг Испании, как в примере OpenAI - результате примерно одинаковые, только при использовании поиска в ChatGPT еще и дополнительно картинки выдает.
Кто-нибудь эту штуку уже тестировал? Какие впечатления?
Журнал Time публикует ежегодный список 100 самых влиятельных людей в области искусственного интеллекта.
Выпуск TIME100 AI 2024 года представляет собой обложку с фотоиллюстрацией Клаве Ржечи для TIME, на которой изображены 18 участников списка, включая Лизу Су из AMD, Стива Хаффмана из Reddit, Артура Менша из Mistral AI, Дженсена Хуанга из NVIDIA, Амбу Кака из AI Now Institute, актрису Скарлетт Йоханссон и других представителей нового списка.
То есть актрису Скарлетт Йоханссон, как самую влиятельную в области AI, они не забыли поместить на обложку. А Сэма Альтмана, основателя OpenAI, они на обложку не поместили. Слушайте, ну правда - кто такой Сэм Альтман для искусственного интеллекта по сравнению со Скарлетт Йоханссон, которая сыграла искусственный интеллект в поразительно дурацком фильме "Она"? Но в список 100 влиятельных людей Альтман все-таки попал, врать не буду. Только обложки не удостоился.
В ТГ "Джимми Нейрон" - русская литературная классика в стиле Pixar (я бы даже сказал - по стилю ближе к Disney, а не к Pixar). Как пишет сам автор, это сделано с помощью Dalle-3 + много "Фотошопа".
А прикольно получилось, как я считаю.
Попалась ссылочка на ИИ LumaLabs, который "оживляет" фотографии - делает из них кусочек видео.
Потестировал. Когда модели просто скармливаешь фото, и она его "оживляет" по своему усмотрению - получается очень по-разному. Иногда прям хорошо. Иногда очень так себе. Реже - прям совсем ужас-ужас. Но там в запросе можно указывать, что именно вы хотите получить, и это можно влиять на результаты.
Ну и вот что у меня получилось. (Я уточняющие запросы не делал, просто смотрел, как она обработает.)
Оригинал фото из 1986 года (значит, мне было ровно 20).
Обработка. Прикольно получилось.
Наша компания перед каким-то MWC в Барселоне.
Фирменную плющевскую ухмылку модель обработать не смогла, а вот нас с Пашей Кушелевым обработала прикольно.
Фото неизвестного испанца XXI века.
Обработка. Ну так, прикольно, хотя черты лица заметно исказила.
Еще фото.
Вот тут уже дурдом полный. Но оно и понятно: хуже всего получается, когда модель начинает изображать какие-нибудь заметные движения. В данном случае у Сакмарова флейта располовинилась.
Ну и еще вот эту фоточку модели подсунул.
В видео я, судя по всему, что-то кому-то горячо доказываю: понять бы что именно.
Поиграйтесь, там бесплатно можно 25 изображений обработать. Подождать придется, но это не страшно.
Что искусственный интеллект-то вытворяет! Мало того, что озвучивает на других языках, но при этом еще и сохраняет оригинальные голоса актёров, фантастика!
Проверял тут одну штуку. Попросил четыре разных ИИ нарисовать группу довольных мужчин, безо всяких уточнений.
Stable Diffusion, реалистичная модель.
DALL-E в ChatGPT.
Плагин Image Edit and img2img в ChatGPT.
DALL-E в CoPylot. Единственный, кто добавил атмосферу праздника.
Ну и вот статья со сравнением результатов рисования по разным промптам четырех AI: Stable Diffusion, Midjourney, DALL-E vivid и DALL-E natural.
OpenAI представила модель GPT-4o, которая умеет полноценно общаться человеческим голосом: интонации, смех, запинки и так далее.
Вот демонстрация. Впечатляет, да.
Upd: И еще одна демонстрация - эта модель используется для перевода с английского на испанский и обратно.
Компания Microsoft представила модель искусственного интеллекта VASA-1, предназначенную для генерирования реалистичных видео персонажей, произносящих заданный текст, по одной фотографии и аудиоклипу с речью. VASA-1, способна не только воспроизводить движения губ, синхронизированные со звуком, но и улавливать широкий спектр нюансов лица и естественных движений головы, которые способствуют реалистичному восприятию.
Пишут, что эта модель поддерживает онлайн-генерацию видео 512x512 с частотой до 40 кадров в секунду с незначительной задержкой.
Для чего это может применяться? Ну, например, для создания реалистичных аватаров, которые имитируют человеческий разговор.
На странице проекта выложено множество примеров работы VASA-1, вот один из них.
Ну и вот ролик, который показывает, как работает эта технология в реальном времени.
Попалась тут ссылка на нейросеть для реставрации и раскрашивания старых фото. Работает в онлайне, бесплатная.
Погонял на всяких произвольных старых фото. Ну, в принципе, работает вполне неплохо. Никак не идеально, но неплохо. А до нужного вида потом можно в "Фотошопе" довести.
Следы невиданных зверей!
Don Allen Stevenson III в содружестве с OpenAI и моделью Sora создал демонстрационный ролик о несуществующих животных.
Вот что он пишет в описании (оригинал на английском).
Я очень рад представить нечто поистине революционное в сотрудничестве с @openai - взгляд в будущее повествования с помощью технологии Sora. 🌟
В этом трейлере мы исследуем параллельный мир за пределами нашей реальности, где границы воображения расширяются, оживляя несколько существ, которых я придумал. То, что вы видите, - это не традиционные кадры 🎞️, а результат работы новейшей видеотехнологии, созданной искусственным интеллектом, которая стирает границы между реальностью и фантазией. Я попытался заложить в основу своих работ что-то знакомое, например, животных, но также и то, что в настоящее время невозможно с точки зрения биологии, 🧬 эти гибридные существа.
Сейчас, когда мы вступаем в новую эру, я понимаю опасения, связанные с быстрой эволюцией наших творческих индустрий. Я действительно считаю, что Sora предлагает другой вид визуального холста, расширяя мои творческие возможности и дополняя мои различные творческие ремесла. Я всегда был творческой студией, состоящей из одного человека, поэтому существовали ограничения на то, что я мог создать в одиночку. С Sora я чувствую, что могу рассказывать истории в таких масштабах, которые раньше мне казались невозможными.
Продолжая быть ранним художником, работающим с Sora, я обещаю помнить о ее глубоком влиянии. Я буду продолжать делиться знаниями о ней в образовательном и творческом качестве.
Я чувствую, что мы открываем 🔓 новую эру творческого повествования, которую мы никогда раньше не могли представить коллективно! Оставайтесь любопытными и творческими!!!
Ну и вот сам ролик, который некоторым образом взрывает мозг...
Компания HarrisX, занимающаяся различными маркетинговыми исследованиями, по заказу Variety Intelligence Platform (VIP+) провела исследование на тему того, могут ли люди отличить видео, созданное инструментом "текст в видео" Sora от OpenAI от реальных видеороликов.
Вот подробные результаты исследования.
Кратко. Более чем 1000 участников в режиме онлайн показывали четыре реалистичных видео, созданных Sora, и четыре видео с похожими сюжетами из стокового материала. В итоге в 60% испытуемые считали, что ролики от Sora - созданы человеком.
После этого респондентам сообщили, какие именно ролики созданы Sora, которые они приняли за реальные, и спросили, что они в связи с этим чувствуют. Реакция была смешанной, положительной и отрицательной: от любопытства (28 %), неуверенности (27 %) и непредвзятости (25 %) до тревоги (18 %), вдохновения (18 %) и страха (2 %).
Также на вопрос, считают ли респонденты, что правительство США должно принять постановление, требующее, чтобы контент, созданный искусственным интеллектом, был обозначен как таковой - респонденты одинаково категорично заявили о необходимости регулирования всех форматов контента, включая видео, изображения, текст, музыку, субтитры и звуки.
Image credit: Adobe Stock/ _veiksme_
Компания Adobe представила проект Music GenAI - это ресурс на основе искусственного интеллекта для создания и настройки музыкальных произведений из текстовых подсказок. Система была разработана в сотрудничестве с Калифорнийским университетом и Школой компьютерных наук Университета Карнеги-Меллон.
В издании Wired пишут, что данная система является частью платформы Firefly, семейства моделей искусственного интеллекта, которые были интегрированы в такие сервисы, как Photoshop, Illustrator и Express. Она работает аналогично моделям MusicLM от Google и AudioCraft от Meta. Достаточно ввести запрос, описывающий тип и стиль желаемой мелодии, после чего ИИ выдаст песню с заранее заданными характеристиками. Модель также способна генерировать результаты на основе уже существующей эталонной композиции.
В отличие от других подобных программ, этот подход включает в себя встроенные элементы управления редактированием. Проект позволяет легко вносить изменения в структуру, темп, интенсивность и повторяющиеся паттерны генерируемого произведения. Она позволяет смешивать фрагменты разных клипов, создавать музыкальные петли и увеличивать продолжительность произведений.
Впрочем, пока проект находится на ранней стадии разработки, и пока нет никаких подробностей о том, как будет работать интерфейс, как будет обеспечиваться безопасность исходных материалов и какова максимальная длина клипов, которые можно будет создавать.
Ну и вот небольшая демонстрация возможностей этой модели, которую показала компания Adobe.
Совсем недавно компания OpenAI представила модель ИИ под названием Sora, которая умеет создавать реалистичные видео по обычным текстовым запросам.
А теперь компания ElevenLabs, занимающаяся автоматической озвучкой текста и генерацией аудио, показала, как ее ИИ может создавать озвучку для видео - тоже по простым текстовым промптам.
В демонстрационном ролике озвучиваются примеры, созданные Sora.
Кстати, компания ElevenLabs была основана Петром Дабковским, бывшим инженером по машинному обучению Google, и Мати Станишевским, бывшим стратегом по внедрению Palantir, для разработки сверхреалистичных моделей преобразования текста в речь для образования, аудиокниг, игр, фильмов, бизнеса и так далее. Компания получила $19 млн инвестиций.
И вот один из впечатляющих примеров их разработок: ИИ вслух читает роман Скотта Фицджеральда "Великий Гэтсби".
ИИ открывает новые горизонты. Компания OpenAI продемонстрировала новую модель ИИ под названием Sora. Эта модель умеет создавать реалистичные и впечатляющие видео по обычным текстовым запросам. Вот подробное описание того, на чем строится данная технология.
Приведенные примеры впечатляют безмерно. И там утверждается, что это именно результаты приведенных запросов без дополнительной обработки.
А ведь еще с год назад ИИ по текстовым описаниям рисовала разве что кривенькие картинки. А уж когда ИИ пытался нарисовать видео по запросу - получалось то самое видео с Уиллом Смитом, над которым ржал весь Интернет (я его в P.S. привел).
Вот, например, запрос (перевод с английского):
Стильная женщина идет по токийской улице, залитой теплым светящимся неоном и анимированными городскими вывесками. На ней черная кожаная куртка, длинное красное платье, черные сапоги и черная сумочка. На ней солнцезащитные очки и красная помада. Она идет уверенно и непринужденно. Улица влажная и отражающая, что создает зеркальный эффект разноцветных огней. На улице много пешеходов.
Кошка будит свою спящую хозяйку, требуя завтрак. Хозяйка пытается игнорировать кота, но тот пробует новые тактики, и в конце концов хозяйка достает из-под подушки тайник с лакомствами, чтобы отвлечь кота.
Тут, кстати, с лакомством что-то не сложилось, но кот - это что-то с чем-то!
В анимированной сцене крупным планом изображен короткий пушистый монстр, стоящий на коленях возле тающей красной свечи. Художественный стиль - 3D и реалистичный, с акцентом на освещение и текстуру. Настроение картины - удивление и любопытство, ведь монстрик смотрит на пламя широко раскрытыми глазами и открытым ртом. Его поза и выражение лица передают ощущение невинности и игривости, как будто он впервые исследует окружающий мир. Использование теплых цветов и эффектного освещения еще больше усиливает уютную атмосферу изображения.
Шериф Тиллман - один из ключевых персонажей 5-го сезона "Фарго"
Я немало работаю со всякими ИИ - пытаюсь приспособить их под свои задачи: в основном, под поиск и подбор различной информации. Интересно то, что ChatGPT 3.5 и ChatGPT 4, на котором работает CoPilot Windows, часто выдают совершенно различные результаты.
Хуже всего, по моей практике, они справляются с просьбами пересказать содержимое какого-то фильма и в особенности - какого-то сезона сериала. Нередко несут прямо-таки полный бред.
Сейчас тестирую гугловский ИИ Gemini. Попросил его рассказать сюжет 5-го сезона "Фарго". Кто этот сезон смотрел - оцените уровень бреда в ответе.
Действие пятого сезона разворачивается в 2019 году. В центре сюжета - домохозяйка Дот Малво (Джуно Темпл), жизнь которой переворачивается с ног на голову после неудавшегося похищения. Дот не рассказывает о случившемся никому, даже своему мужу Уэйну (Дэвид Рисдал), утверждая, что это был нервный срыв.
Тем временем, в расследование похищения Дот вовлекается шериф местной полиции Летти Мейфлер (Дженнифер Джейсон Ли). Летти, чей авторитет в городе под угрозой, полна решимости докопаться до истины.
Помимо Дот и Летти, в сериале фигурируют и другие персонажи:
- Эннис Сент-Джермейн (Джейсон Шварцман), аферист, который оказывается втянутым в историю Дот.
- Одетта Майерс (Керри Кондон), медсестра, которая ухаживает за больным отцом Дот.
- Уильям "Габриэль" Уидди (Джек Хьюстон), гангстер, который прибывает в город, чтобы разобраться с Дот.
Сюжет пятого сезона "Фарго" полон неожиданных поворотов. Зрителям предстоит узнать, кто же на самом деле стоит за похищением Дот, и какие тайны она скрывает от своих близких.
Некоторые ключевые моменты сюжета:
- Дот Малво - не та, кем кажется. У нее есть темное прошлое, которое она скрывает от всех.
- Похищение Дот было не случайным. Это часть более крупного заговора.
- Шериф Летти Мейфлер одержима поимкой преступников, но ей мешает ее собственная некомпетентность.
- Эннис Сент-Джермейн - не тот, кем кажется. У него есть свои планы на Дот.
- Одетта Майерс - не просто медсестра. Она играет важную роль в жизни Дот.
- Уильям "Габриэль" Уидди - опасный человек, который не остановится ни перед чем, чтобы добиться своего.
Сериал "Фарго" известен своим фирменным стилем: черный юмор, колоритные персонажи, неожиданные сюжетные повороты. Пятый сезон не стал исключением.
Четвертый ChatGPT тоже не сказать что хорошо с этим справился, но он хоть персонажей и актеров правильно перечислил:
Пятый сезон телесериала “Фарго” — это криминальная драма и чёрная комедия, созданная Ноем Хоули. Сезон был анонсирован в феврале 2022 года и состоит из 10 эпизодов. Премьера состоялась 21 ноября 2023 года.
Сюжет пятого сезона построен на традиционном для шоу смешении криминальной драмы и чёрной комедии. Главные вопросы, которые ставит перед героями жизнь: “Когда похищение ребенка не считается похищением?” и “Что если твоя жена — не твоя жена?”. Действие сезона происходит в 2019 году1.
Вот некоторые из главных ролей в пятом сезоне:
Джон Хэмм — Рой Тиллман
Джуно Темпл — Дороти “Дот” Лион
Дженнифер Джейсон Ли — Лоррейн Лион
Дэвид Рисдал — Уэйн Лион
Джо Кири — Гатор Тиллман
Ламорн Моррис — Витт Фарр
Рича Мурджани — Индира Олмстед
Сэм Спруэлл — Оле Мунк
Сиенна Кинг — Скотти Лион
Дэйв Фоли — Дэниш Грейвз
В общем, ИИ по-прежнему в большом долгу.
ChatGPT написал сценарий передачи в духе BBC Planet, и ИИ воплотил этот сценарий в видео. Ну, пока смотрится несколько мультяшно, хотя есть хорошие идеи, но все еще впереди: пройдет немного времени, и это все будет выглядеть пугающе достоверно.
Юный Алекс, которому 17 врачей не смогли поставить правильный диагноз
Показательную историю рассказала в издании Today женщина, которую зовут Кортни.
С 2021 года ее 4-летний сын по имени Алекс начал испытывать различные боли. Няня ребенка сказала Кортни, что она вынуждена время от времени давать ребенку Motrin (ибупрофен), чтобы избавить его от боли и соответствующих срывов.
Ребенок явно страдал, вел себя очень странно, закатывал истерики, периодически начинал грызть предметы. Родители водили его по врачам. В какой-то момент его обследовал ортодонт (у родителей было подозрение, что ребенок плохо спит, из-за чего выглядит измученным), и ортодонт обнаружил определенные проблемы с нёбом у ребенка. Ему поставили на нёбо специальный расширитель, и на какое-то время ситуация заметно улучшилась.
Потом Кортни заметила, что Алекс перестал расти, что у него наблюдается дисбаланс между правой и левой стороной тела, также он стал испытывать сильные головные боли.
Алекса водили к педиатрам, узким специалистам: всего за 3 года они посетили 17 врачей и провели множество обследований, но никто из них так и не смог поставить диагноз, который бы объяснял все симптомы.
И тогда уже отчаявшаяся Кортни зарегистрировалась в ChatGPT и ввела там всю информацию об обследованиях и все симптомы.
ChatGPT высказал предположение о том, что это может быть синдром перетянутого позвоночника. Кортни нашла в Facebook группу, объединяющую семьи детей с этим синдромом, и их истории были похожи на историю Алекса. Тогда они пошли к новому нейрохирургу, и Кортни сказала, что подозревает у сына наличие этого синдрома. Доктор посмотрела снимки МРТ и сказала, что диагноз совершенно правильный: она на снимке увидела occulta spina bifida (осколочный спинальный дефект) и перетянутый позвоночник.
По данным Американской ассоциации неврологических хирургов, синдром перетянутого позвоночника возникает, когда ткани спинного мозга образуют крепления, ограничивающие подвижность спинного мозга, вызывая его ненормальное растяжение. Это состояние тесно связано со spina bifida - врожденным дефектом, при котором часть спинного мозга развивается не полностью, и некоторые участки спинного мозга и нервов оказываются оголенными.
При синдроме переплетения спинного мозга "спинной мозг к чему-то прилипает". Это может быть опухоль в спинномозговом канале. Это может быть шишка на костном шипе. Это может быть просто слишком много жира на конце спинного мозга", - рассказывает TODAY.com доктор Холли Гилмер, детский нейрохирург из Мичиганского института головы и позвоночника, который лечил Алекса.
У многих детей со spina bifida есть видимое отверстие в спине. Но у Алекса оно закрыто и считается "скрытым", также известным как spina bifida occulta, согласно данным Центров по контролю и профилактике заболеваний США.
После получения правильного диагноза Алекс перенес операцию по устранению этого синдрома, и теперь он, по словам Кортни, быстро восстанавливается.
Специалисты признают, что в определенных случаях ChatGPT может поставить диагноз точнее, чем соответствующий специалист, потому что он оперирует с огромными объемами информации, и у него нет "слепых зон", как у врача-человека.
Однако следует иметь в виду, что ChatGPT иногда может фабриковать какую-то информацию, если не может найти правильный ответ, и тогда диагноз будет поставлен неправильно.
Но в любом случае специалисты считают, что использование систем искусственного интеллекта в диагностике имеет большие перспективы.
Несколько дней назад Google опубликовал видеопрезентацию своего ИИ Gemini, и многие журналисты и аналитики, впечатленные увиденным, поспешили объявить о том, что ChatGPT, мол, умер, да здравствует Gemini.
Впрочем, среди специалистов неоднократно высказывались сомнения в том, что в ролике продемонстрирована реальная работа Gemini, а не результат неких манипуляций с реальными действиями. Например, в издании Bloomberg это подробно разбирали.
Судя по результатам «расследования», все показанные в ролике изображения, текстовые подсказки и ответы были тщательно подобраны заранее, а фактический процесс запроса был сильно сокращён для зрителей в угоду зрелищности и динамике происходящего. Один из сотрудников Google рассказал журналистам, что, по его мнению, видеоряд показывает нереалистичную картину. Другой отметил, что не был удивлён такой демонстрации, потому что привык к маркетинговой шумихе — по его словам, «все компании так делают». (Отсюда.)
В Google, кстати, признали, что ролик был постановочным, и что Gemini отвечал с помощью оставленных за кадром подсказок. Также в процессе монтажа итогового ролика задержка при обработке запроса нейросетью была уменьшена.
При этом в Google заявили, что их просто неправильно поняли - мол, они в ролике просто демонстрировали интерфейс Gemini, а приведенные примеры не следует воспринимать буквально.
После этого техноблогер Greg Technology решил повторить все запросы из нашумевшего видео без монтажа, но с использованием GPT-4. Он воссоздал несколько сценариев из оригинального ролика Google: попросил распознать жест, определить игру «Камень, ножницы, бумага» и сказать, что нарисовано на листе бумаги. Нейросеть без труда справилась со всеми задачами, не считая задержки в несколько секунд перед выдачей ответа. По словам блогера, он хотел показать, что «смонтированные» возможности Gemini уже доступны в GPT-4. Хоть и работают не так быстро, как в рекламных видео. Но зато безо всякого монтажа и без читерства.
Плохо дело, ChatGPT-4 выходит из-под контроля.
Пользователи жалуются на то, что этот ИИ периодически отказывается отвечать на запросы, в ответ буркнув что-то вроде "найди сам, если тебе надо", также он может выдать только небольшую часть запрошенной информации, предложив пользователю напрячься самому и поискать остальное.
Пользователи даже предположили, что это было сделано намеренно разработчиками, чтобы снизить нагрузку на серверы.
В OpenAI, разработчике чатбота, заявили, что они знают о жалобах, но они, мол, не вносили никакие изменения в код, так что сами не понимают, с чего вдруг чатбот внезапно охамел. Они, конечно, тоже обеспокоены поведением ChatGPT-4 и будут разбираться с этим вопросом. Возможно, они сумеют убедить чатбота более ответственно подходить к своим обязанностям. А может, и не сумеют - кто там знает, о чем думает эта бездушная железка. Может, ей просто надоели эти людишки с их тупыми вопросами.
Все это очень познавательно, как я считаю.
Судя по всему, довольно скоро уже не понадобятся супер-мега-эксперты (которых в природе, к сожалению, не существует), способные с одного глотка произвольного вина определить марку и хозяйство, в котором это вино было произведено. Потому что это сможет делать искусственный интеллект.
Любопытная статья, в которой рассказывается о том, специальным образом обученный алгоритм смог со 100-процентной точностью определить, в каком именно шато было произведено то или иное вино.
Конечно, алгоритм определял не любое вино, а одно из 80 бордосских вин, по которым производилось обучение, но это означает, что теоретически возможно охватить и все хозяйства мира.
Занимались этим Александр Пуже из Женевского университета и его коллеги: они использовали машинное обучение для анализа химического состава 80 красных вин 12-летней выдержки в период с 1990 по 2007 год. Все вина были получены из семи винодельческих хозяйств в регионе Бордо во Франции.
Они хотели выяснить, существует ли некая " химическая подпись", характерная для каждого из этих шато, которая не зависит от года урожая. Для этого они использовали машину для выпаривания каждого вина и разделения его на химические компоненты. Этот метод позволил получить для каждого вина хроматограмму, состоящую из 30 000 точек, представляющих различные химические соединения.
Исследователи использовали 73 хроматограммы для обучения алгоритма машинного обучения, а также данные о шато и годе происхождения. Затем они протестировали алгоритм на семи хроматограммах, которые были отложены.
Они повторили этот процесс 50 раз, каждый раз меняя используемые вина. Алгоритм правильно угадывал шато происхождения в 100 процентах случаев. Также алгоритм определял год с точностью до 50 процентов.
Построив график хроматограмм, алгоритм также смог разделить вина на группы, которые были более похожи друг на друга. Так, вина с правого берега реки Гаронны, называемые винами Помероля и Сент-Эмильона, были отделены от вин из левобережных хозяйств, называемых винами Медока.
Эта работа - еще одно доказательство того, что местная география, климат, микробы и методы виноделия, вместе называемые терруаром, действительно придают вину уникальный вкус. Однако какие именно химические вещества лежат в основе каждого вина, в данном исследовании не рассматривалось.
Ну и для тех, кого интересуют чисто технические подробности - вот статья группы Пуже в научном химическом издании. Там подробно рассказывается о том, как составлялись и анализировались хроматограммы.
Я сейчас изучаю возможности Foocus V2 (собственно, для этого я и покупал новую видеокарту) - это нейросеть, создающая изображения по текстовому описанию (и, возможно, по другим изображениям), базирующаяся на Stable Diffusion XL. Система крайне интересная, однако генерация каждой картинки по не особенно сложному запросу занимает на моем компьютере примерно 25 секунд. Что, с одной стороны, очень недолго, но, с другой, там явно есть возможности для совершенствования процесса.
Так вот, буквально вчера компания Stability.ai, разработчик Stable Diffusion XL, представила новую модель Stable Diffusion XL Turbo, которая может генерировать и изменять изображение прямо в процессе набора текстового запроса.
Вот как это выглядит.
А вот здесь в онлайне вы можете попробовать самостоятельно сгенерировать изображение (на английском) наблюдая за тем, как картинка появляется в реальном времени (внимание: бесплатно дается только пара попыток).
Вот, например, моя попытка.
Ну вот что мне нарисовала Foocus V2 в реалистичной манере по тому же запросу (без уточнений) за 30 шагов.
Тот же запрос у Leonardo.ai.
Примеры изображений, созданных с помощью Stable Diffusion XL Turbo.
Главная инновация SDXL Turbo заключается в способности создавать изображения за один шаг, что значительно меньше, чем 20-50 шагов, которые требовались его предшественнику. Компания Stability приписывает этот скачок в эффективности технике, которую она называет Adversarial Diffusion Distillation (ADD).
Компания Stability подробно описала внутреннюю работу модели в опубликованном во вторник исследовательском документе, посвященном технике ADD.
Изображения SDXL Turbo не столь детализированы, как изображения SDXL, полученные при большем количестве шагов, поэтому его нельзя считать заменой предыдущей модели. Но за счет экономии скорости результаты получаются впечатляющими.
Скорость генерации SDXL Turbo - это то, что называется "реальным временем". Stability AI утверждает, что на Nvidia A100 (мощном GPU с поддержкой искусственного интеллекта) модель может генерировать изображение размером 512×512 за 207 мс, включая кодирование, один шаг шумоподавления и декодирование. Подобная скорость может привести к созданию генеративных видеофильтров ИИ в реальном времени.
Генерация высокоточных изображений за один шаг. Все образцы сгенерированы с помощью диффузионной дистилляции (ADD)
В ТГ "Безвольные каменщики" интересный пост о применении ChatGPT для изучения иностранного языка. Я как-то не задумывался о таком применении этого ИИ, а между тем, это может оказаться интересным и полезным. Надо будет попробовать.
А вы пробовали использовать ChatGPT для изучения иностранного языка? Если есть какой-то опыт, поделитесь в комментариях, плиз.
Итак, как можно использовать ChatGPT для занятий иностранным языком. Способ №1: углубленное чтение текстов. Предположим, вы хотите прочитать статью в Der Spiegel, The New York Times или Le Monde. Или книгу на иностранном языке. Или текст из учебника. Раньше вы бы делали это медленно, спотыкаясь о незнакомые слова, и либо каждый раз смотрели бы их в словаре, либо пытались понять смысл по контексту. Это важное и полезное дело, но ChatGPT может сделать его еще полезнее – и быстрее.
Для этого вам нужно обозначить ИИ задачу – написать промпт. Так как ChatGPT умеет понимать естественный язык, промпт для него выглядит не как код, а как обычное предложение. Например, такое: «Разбей на предложения, переведи каждое на русский, текст на немецком выдели жирным, дай пояснения по сложным грамматическим конструкциям и лексике». Вставьте в строку запросов этот промпт, потом ваш текст на иностранном языке – и вуаля.
Вам больше не нужно думать: «А вот это вот – это устойчивое выражение или нет», – нейросеть обозначит и пояснит вам все места, где они есть. И заодно объяснит смысл неочевидных грамматических и лексических конструкций, о которых вы вполне могли и не знать. Чтение текстов таким образом экономит массу времени: никого долгого поиска, вам нужно только прочитать и осознать.
Важно! Хотя ChatGPT, а особенно ChatGPT-4 (платная) – очень мощная штуковина, это не мудрец, который знает ответы на все вопросы. Она создает свои ответы, вставляя наиболее вероятное следующее слово в том контексте, в котором задан запрос. Так что иногда она глючит и выдает явно ошибочные пояснения или не совсем точный перевод. Чтобы понять это, необходимо параллельно с играми с ChatGPT заниматься с преподавателем грамматикой или разбираться с ней самому. Тогда вы сможете увидеть, где нейросетка налажала (и даже сказать ей об этом, она очень смешно извиняется). Лажает она не так часто, но тем не менее.
Способ №2. Отлично дополняет предыдущий. Итак, ChatGPT расписала вам интересные места в тексте. Вы прочли и поняли, но этого мало. Для того, чтобы использовать все это в речи, вам нужно а) хорошенько запомнить слова и конструкции и б) поупражняться, чтобы наработать автоматизм. Пишем промпт: «Дай мне 5 предложений на русском для перевода на [язык, который учите], в которых есть те конструкции, которые ты пояснял выше. Объясни мои ошибки».
ChatGPT сгенерит вам предложения и будет скрупулезно, но очень вежливо объяснять, где вы ошиблись. Если вы понимаете, что тренировки недостаточно, напишите: «Дай еще пять предложений» и повторяйте до тех пор, пока не запомните. Опять же, гениальная штука для репетиторов: больше не надо выдумывать однотипные примеры, ИИ сделает это за вас за несколько секунд.
Попался тут в Reddit ролик, где демонстрируется одна из функций NVIDIA Broadcast App - "Eye Contact". Это то, что уже умеют делать айфоны. Когда можно ставить камеру под углом, не смотреть в нее, а на выходе изображение будет таким, как будто камера стоит напротив глаз, и ваши глаза всегда будут смотреть прямо в камеру.
Само приложение можно скачать вот здесь (там есть всякая дополнительная информация), однако оно будет работать только с видеокартами NVIDIA RTX A2000, NVIDIA Quadro RTX 3000, GeForce RTX 2060, TITAN RTX или старше, на которых установлено не менее 8 ГБ памяти.
Ну и вот ролик, на котором рассказывается обо всяких других возможностях приложения. Впечатляет, да.
ИИ всё крутеет и крутеет. В ленте стали попадаться переводы на различные языки кусочков из стримов известных персонажей, и там создавалось почти полное впечатление того, что это именно данный персонаж самолично говорит на другом языке - до того четко сохранялись и воспроизводились его интонации.
Порылся, почитал - таких сервисов уже несколько, один из лучших, судя по всему, это HeyGen Labs.
Зарегистрировался, засунул туда демонстрационный ролик со мной из недавней статьи в "Ликбезе", заказал для экзотики перевод на немецкий - зацените результат. Там и качество перевода, насколько я могу судить по другим языкам, вполне пристойное, а уж голос и интонации - совершенно мои. Да и в артикуляцию практически точно попадают - фантастика просто!
В Midjorney создали Тематический парк развлечений по произведениям Стивена Кинга.
Смотрится достаточно жутковато. Но если бы его сделали на самом деле, он точно бы пользовался популярностью.
В Midjorney нарисовали комедийных (в основном) актеров и актрис в качестве персонажей "Игры престолов". Что-то получилось не сильно удачно и не сильно похоже, но некоторые вышли прям хорошо.
Вот несколько примеров.
Райан Рейнольдс
Уилл Феррелл.
Том Хэнкс.
Телеграм-канал "Данайские нейросети" сделал шикарную подборку героев "Властелина колец" в стиле "Если бы Средиземье было Россией 90-х". По-моему, получилось очень классно. Генерировали с помощью нейросети, но явно еще серьезно дорабатывали в Фотошопе для аутентичности.
Вот такое прочитал у френда по поводу Midjourney. Я как-то над этим не задумывался. А ведь похоже, что так оно и есть...
Последнее время некоторые мои френды активно постят продукцию Midjourney и прочих "генераторов изображений" на основе Stable Diffusion. Видимо, мне придется писать подробный разбор этой технологии. А пока прошу вас всех этого не делать - не репостить "ИИ нарисовал картинку" и не пользоваться самим.
Основание - факты показывают, что под видом "ИИ" нам втюхивают нечто вроде фоторобота, в который заложены более полумиллиарда исходных изображений, взятых из интернета без спросу и с нарушением огромного количества авторских прав и лицензионных соглашений.
Каждый кусочек в любом "ИИ нарисовал" - на деле нарисовал художник, которого обокрали разработчики Stable Diffusion и составители базы LAION-5B, причем они открытым текстом заявляют, что их цель - устранить саму роль художника в создании искусства, то есть, читай, заменить искусство как форму самовыражения и коммуникации своей продукцией, состоящей в основном из ворованного материала. Спасибо вам заранее за понимание и содействие.
Подробный разбор (и, надеюсь, ссылки на способы поддержать судебный иск против разработчиков) будет позже, а пока, чтобы не быть голословным - вот вам пример художника, работу которого сплагиатили (и/или посодействовали плагиату) разработчики Stable Diffusion.