Адрес для входа в РФ: exler.click

Я неоднократно читал о различных технологиях улучшения изображений и вообще за этими разработками стараюсь следить - это очень важно и будет востребовано.

Сейчас корпорация Google объявила о создании новой технологии улучшения изображения, повышающей разрешение картинки аж в 16 раз. Цитирую отсюда.

Разработчики Google представили новую технологию, благодаря которой можно значительно улучшить качество исходного изображения. Искусственный интеллект попиксельно восстанавливает даже сильно сжатую картинку, приближая её к оригиналу.

Команда Brain Team продемонстрировала два алгоритма генерации фотографий. Используя технологию SR3, предусматривающую апскейлинг с помощью повторного уточнения, нейросеть увеличивает разрешение картинки, достраивая недостающие части из гауссовского шума. Обучение этой модели построено на методах искажения изображения и последующем обратном процессе.

Вторая диффузная модель — CDM. Для её обучения специалисты использовали миллионы изображений в высоком разрешении из базы данных ImageNet. Улучшение качества картинки она производит каскадно — в несколько этапов. Так, исходник размером 32х32 пикселя улучшается до 64x64, а затем до 256x256 (в 8 раз), а оригинальное изображение с разрешением 64x64 точки обрабатывается по схожей схеме до 256x256 и 1024x1024 пикселя (масштабирование 16x).

По заверению разработчиков, новая технология превосходит по качеству восстановления фотографий такие современные методы ИИ-масштабирования, как BigGAN-deep и VQ-VAE-2.

На сегодня Google лишь продемонстрировала результаты работы алгоритмов посредством коротких анимаций, но ещё не публиковала подробностей о новой технологии. Когда компания планирует представить коммерческий вариант ИИ-апскейлера, не уточняется.

Выглядит это все очень интересно, но, как обычно, буду ждать, когда предоставят готовый инструмент, с помощью которого я смогу посмотреть, как это работает вживую.

Ну что, это круто, если все так и есть. Жду, когда появится - сравню с aptX HD, AAC и LDAC. Интересно, это вообще можно будет услышать? А то без хорошо прогретой бескислородной меди толком-то и не поймешь!

Qualcomm представила свою новую разработку — кодек aptX Lossless. По заверению компании, его использование обеспечит сторонникам Bluetooth-акустики качество аудио, сопоставимое с прослушиванием CD при классическом проводном подключении.

Представители Qualcomm подчёркивают, что при использовании гаджетов, которые получат поддержку кодека aptX Lossless, их владельцы смогут рассчитывать на значение битрейта до 1,4 Мбит/с. Поскольку пропускная способность самого Bluetooth-канала технически составляет 1 Мбит/с, компании пришлось применить специальную технологию потокового сжатия.

Впрочем, эксперты отмечают, что специально продуманные алгоритмы не приводят к ухудшению качества дорожки. Звук на входе идентичен выходному сигналу — 16 бит / 44,1 кГц (CD-качество). Новый кодек будет входить в состав технологии Snapdragon Sound, представленной в начале весны 2021 года.

Пока что ни одна из выпущенных Qualcomm мобильных платформ не поддерживает новую технологию. Ожидается, что выход на рынок первых смартфонов, совместимых со Snapdragon Sound и aptX Lossless, состоится уже в следующем году. (Отсюда.)

У замечательного Вастрика поразительно интересная (как обычно) статья о машинном переводе: о том, как это все начиналось, как развивалось, что с этим происходит сейчас, какие в этой области существуют прорывы и в чем заключаются проблемы. Кого интересует эта тема - очень рекомендую почитать: Вастрик, как обычно, прочитал кучу различных материалов, чтобы потом изложить все последовательно и понятно. Плюс - он реально хорошо и остроумно пишет, так что читать его - одно удовольствие. Цитировать ничего не буду, там просто нужно читать.

Кстати, должен заметить, что с появлением искусственного интеллекта машинный перевод стал заметно более продвинутым и видно, что это все активно развивается. Если раньше на перевод чего-то чуть более сложного, чем самая простейшая фраза, без слез смотреть было невозможно, то сейчас уже уровень машинного перевода заметно повысился. И машинные переводчики стали неплохо справляться даже со всякими непростыми временами, насколько я могу судить.

Кстати, что интересно, в моем личном рейтинг Яндекс.Переводчик обгоняет переводчик Google. Да-да, я много раз их сравнивал, и теперь пользуюсь практически только Яндекс.Переводчиком: он, на мой взгляд, более удобный и продвинутый. И дело не только в том, что ЯП определяет язык, на котором ты пишешь и автоматически меняет направление перевода, если это требуется. (Пример. В ЯП выставлен перевод с испанского на русский. Я в испанском разделе начинаю писать на русском - ЯП сам меняет направление перевода и правильно выдает результат.) А переводчик Google такое не умеет делать в упор.

Но у Яндекса также значительно разнообразнее связанные слова и намного разнообразнее реальные примеры употребления, что мне очень помогает.

Вот, сравните.

Остальные сервисы я обычно использую гугловские, особенно поиск. Но в плане автоматического перевода Яндекс тут лично у меня вырвался вперед, как ни странно.

Сервис называется Neural.love. Нейросеть умеет обрабатывать фото и видео, делая реалистичными (как бы фото) рисунки и картинки. Также умеет раскрашивать черно-белые фото, но это не так интересно.

Вот пример фото.

Портреты и картинки - значительно интереснее.

Компания готовится к запуску функции отслеживания снимков в галереях смартфонов на предмет наличия незаконного контента. Сканирование будет проводиться непосредственно на iPhone, но в случае обнаружения подозрительных изображений нейросеть сообщит об этом в Apple. Информацию о нововведении, опубликованную изданием Financial Times, уже подтвердили представители бренда.

По заявлению Apple, фирменный алгоритм neuralMatch позволяет локально сканировать фотографии владельцев iPhone без их отправки на облачные сервера. «Подозрительность» снимков выявляется путём сопоставления с базой данных Национального центра поиска пропавших и эксплуатируемых детей в США, включающей более 200 000 изображений.

С помощью алгоритмов хеширования система пометит сомнительные фото — и если количество отметок достигнет определённой цифры, neuralMatch предупредит Apple о возможном обнаружении незаконного контента. После этого сотрудники компании примут решение об обращении в правоохранительные органы. Схожую систему проверки изображений под названием PhotoDNA уже применяют и другие крупные компании, такие как Facebook, Twitter и Google.

Кроме того, в iOS 15 приложение «Сообщения» будет использовать машинное обучение на устройстве, чтобы предупреждать пользователя, если он намерен отправить конфиденциальный контент. Если гаджетом пользуется ребёнок, его родители также получат оповещение об отправке подозрительных файлов с устройства. При этом, как утверждает Apple, частные сообщения будут нечитаемыми для компании. Вендор сообщил, что система вскоре будет развёрнута в США, но не уточнил, будет ли она запущена глобально и когда это произойдет.

Комментируя нововведение, профессор Университета Джона Хопкинса и криптограф Мэтью Грин отметил, что опасается попадания инструмента в руки мошенников, а сам алгоритм хеширования не исключает генерации ложных результатов. Представители бренда на заявление специалиста не ответили.

Upd: компания подтвердила, что не сможет сканировать изображения на устройствах пользователей, отключивших функцию «Фото iCloud», поскольку отметки о сомнительном содержимом прикрепляются к копиям фотографий в облачном хранилище, а не к оригинальным изображениям. (Отсюда.)

М-да. Рыться в фотографиях пользователя непосредственно на его смартфоне, помечать "подозрительные", а информацию об этих "подозрительных" еще и сливать правоохранительным органам - это, конечно, красиво. Особенно когда знаешь, насколько "эффективно" работают все эти механизмы распознавания и искусственного интеллекта.

Что-то становится все как-то грустнее и грустнее. Нет, есть, конечно, способы этому противостоять, но тенденции как-то совсем не радуют.

Запас хода в 1000 км и зарядка за 5-8 минут. GAC Aion V EV с графеновой батареей готов совершить революцию на рынке?

Китайская компания GAC показала на выставке Technology Day грядущий электромобиль Aion V EV, который в первую очередь впечатляет своей быстрой зарядкой.
Запас хода в 1000 км и зарядка за 5-8 минут. GAC Aion V EV с графеновой батареей готов совершить революцию на рынке?

Пока многие мировые бренды только обещают, GAC уже демонстрирует автомобильную зарядку, способную кардинально изменить ситуацию на рынке. По заявлению производителя, в зависимости от версии для зарядки от 0% до 80% будет достаточно 16 или даже всего 8 минут!

Демонстрация касалась кроссовера Aion V EV, который выйдет на рынок уже осенью. Феноменальных показателей удалось добиться благодаря использованию графеновых аккумуляторов.

Если говорить подробнее, то модификация Aion V EV 3С с батареей, обеспечивающей запас хода в 500 км, сможет заряжаться с 0% до 80% за 16 минут, а с 30% до 80% — всего за 10 минут. Модификация Aion V EV 6С сможет похвастаться показателями 8 и 5 минут соответственно, предлагая запас хода до 1000 км.

Во время демонстрации зарядное устройство показало мощность 481 кВт. При этом GAC утверждает, что такие показатели никак не сказываются на надёжности аккумулятора, и он должен обеспечить до 1 млн пробега, правда, при комнатной температуре. (Отсюда.)

Зарядка за 8 минут и запас хода до 1000 километров - это очень интересно, да. Но показы на выставке - это одно, а реальная эксплуатация - совсем другое. Подождем, когда появятся в продаже и когда станет известно реальное положение дел.

Слушайте, это реально гениальная идея! Задрали владельцы собак, которые не убирают за своими питомцами! А не убирают очень многие и есть твари, которые не убирают за собакой, даже когда она наделала во дворе, где играют дети. (Лично видел одного такого дедка-каталана, который даже после замечания дерьмо его собаки убирать не стал.) С введением же подобных штрафов все станут убирать как миленькие! Очень надеюсь, что Испания последует этому замечательному примеру.

Власти Израиля создадут базу собачьих фекалий. Это не шутка — такая база позволит собирать ДНК четвероногих и штрафовать их владельцев.

В Тель-Авиве чиновники устали получать тысячи жалоб на неубранные собачьи экскременты в общественных местах, поэтому какой-то злой гений придумал и протолкнул революционную схему: чтобы избавить город от фекалий, нужно их собирать, проводить ДНК-тестирование и забивать полученные образцы в базу.

Дальше начинают крутиться бюрократические механизмы. В Израиле запрещено держать дома собаку без специальной лицензии, но недавно на фоне борьбы с фекалиями к этому закону в Тель-Авиве приняли поправку. Теперь для продления или получения новой лицензии жителям города необходимо сдать генетические данные питомца.

Таким образом, специалистам останется лишь сопоставить ДНК, полученные из фекалий, с имеющейся базой. В случае совпадения владелец четырёхлапого получит письмо с требованием оплатить штраф и покрыть стоимость ДНК-теста — в сумме получается 472 шекеля, или 10,7 тыс. рублей. (Отсюда.)

Я бы эту новость и перепечатывать не стал - о разработках неинвазивных глюкометров время от времени сообщается давно, а серийных устройств до сих пор как не было, так и нет, - однако здесь утверждается, что вот прямо-таки завод уже строится, и что с 2023 года начнут выпускать серийно.

Данный глюкометр уровень сахара определяет по слюне. Что звучит совсем странно, конечно. Мне не очень понятно, как по слюне вообще можно определить уровень сахара в крови. Но в заметке говорится именно это.

Физик Пол Дастур из Университета Ньюкасла создал биосенсор для диагностики уровня сахара в крови. В отличие от существующих методов, его прибор не требует болезненного прокалывания пальца, что позволит улучшить качество жизни сотням миллионам людей с диабетом по всему миру.
Тест на диабет

Идея создания подобного устройства пришла к Полу, когда он заглянул на работу к своей жене. Она работает учительницей в начальной школе и вынуждена делать нескольким малышам болезненные уколы перед каждым приёмом пищи. Так Пол узнал, что больше 460 миллионов человек по всей планете регулярно проверяют свой уровень глюкозы. Результатом многолетних исследований стал биосенсор, похожий на пластинку жевательной резинки. Он способен проводить диагностику сахара на основе слюны человека.

Главное, что это не очередная разработка, которая не пойдёт дальше подобных новостей. Строительство фабрики по массовому производству биосенсора стартует уже в текущем году, а первые датчики сойдут с конвейера в 2023-м. Автор проекта уверяет, что в будущем биосенсор можно использовать для анализа 130 различных показателей, в том числе онкомаркеров, гормонов и различных аллергенов. Кроме того, он может стать основным инструментом для диагностики коронавируса. С этой целью были подключены исследователи из Института биологической инженерии Висса при Гарвардском университете. (Отсюда.)

Читаю новость о том, что в "Яндексе" создали "не имеющую аналогов в мире технологию автоматического перевода видеороликов".

«Яндекс» создал технологию машинного перевода видео. С ее помощью видеоролики зарубежных авторов смогут посмотреть даже те, кто не владеет иностранными языками – разработка «Яндекса» в автоматическом режиме переведет видео на русский язык и озвучит его закадровым голосом. Об этом CNews рассказали представители компании. По заявлению создателей, технология не имеет аналогов в мире.

На сегодняшний день у «Яндекса» готов прототип системы машинного перевода. Сейчас он работает только с роликами на английском языке. Разработчики утверждают, что опробовали технологию на видеозаписях на самые разные темы: изменение климата, машинное обучение, история Плутона.

Пользователям функция машинного перевода видеороликов доступна в фирменном браузере «Яндекса» для операционных систем Windows и macOS, однако лишь при просмотре ограниченного числа роликов. Специалисты компании создали на Youtube-канале "Yet another browser" подборку из 12 видео (плейлист «Перевод видео»), с помощью которых любой желающий сможет убедиться в работоспособности технологии. В ближайшее время пользователи получат возможность самостоятельно выбирать, какие именно ролики переводить, обещают в «Яндексе».

Над созданием прототипа работало несколько команд. Сейчас в нем применяются технология синтеза речи, разработки «Яндекс.переводчика» и биометрия. Последняя используется для определения пола говорящего – это, как отмечают в «Яндексе», важно и для перевода, и для синтеза речи, в частности, позволяет подобрать подходящий голос для закадровой озвучки.

Технология «Яндекса» поддерживает синхронизацию закадрового голоса с видеорядом, при необходимости корректируя темп речи виртуального переводчика и добавляя в нее паузы. Синхронизация необходима, поскольку исходные и переведенные реплики могут значительно отличаться по длительности – например, в английском языке часто используемые фразы нередко лаконичнее своих русских аналогов.

Для тех, кто внимательно следит за тем, что происходит в мире машинных переводов, все это звучит совершеннейшей фантастикой. Обычные-то текстовые переводчики пока, мягко говоря, далеки от совершенства (хотя нельзя не признать, что с каждым годом они работают все лучше и лучше - благодаря нейросетям), а уж автоматическое воспроизведение текста голосом - это все слушается очень криво.

А тут нам утверждают, что они научились не только распознавать голос в ролике, не только качественно переводить его на другой язык, но и озвучивать на другом языке? Мне в это верится с большим трудом.

Компания предлагает послушать типа как "образцы работы технологии". Сделать это можно только в Яндекс.Браузере, для чего я его поставил, в нем в Yotube открыть плейлист "Перевод видео", и там можно включить перевод.

Для тех, кому не хочется со всем этим возиться - ставить Яндекс.Браузер и так далее, - я заснял небольшой ролик о том, как это все работает.

Так вот. То, что я вижу и слышу в ролике - это даже рядом никакой не "автоматический перевод". Это перевод, явно сделанный профессиональным переводчиком и озвученный профессиональным актером (безусловно, живым человеком, это даже рядом не автоматическая озвучка, как в ридерах с такой функцией).

Ну и в чем юмор, ребята? Ну сделали вы войсовер для нескольких роликов, молодцы. Но на черта это выдавать за "автоматический перевод", когда там за версту понятно, что это никакой не автоматический перевод?

Если вы работаете над этой технологией, но пока вам нечего показать - ну так и напишите, что работаете, но показать пока нечего.

Если вы создали подобную технологию, она работает, и вы готовы ее продемонстрировать - ну так разрешите ее использовать для любых роликов, оговорив, конечно, что голос человека в ролике должен быть только один. Тогда хоть можно будет понять, что она собой представляет.

А так - вообще не пойми что. Показывать обычный войсовер в качестве "демонстрации технологии автоматического перевода" - это как-то очень и очень странно.

На выставке MWC в Барселоне показали новый смартфон Concept Phone 2021. Это концепт, что прямо-таки следует из названия, в серии он выпущен не будет, однако это полностью рабочая версия, и компания разослала несколько экземпляров данного смартфона известным техноблогерам.

Что интересного в этом смартфоне?

Во-первых, его задняя крышка может менять свой цвет.

Помимо уникального рисунка в виде надписи NOW, задняя крышка выполнена с применением электрохромной и электролюминесцентной технологий. Благодаря этому поверхность способна менять цвет. Например, при входящем звонке она меняется с серебристого на синюю, а во время зарядки центральная область заполняется зелёным и мигает.

Это любопытная история, конечно.

Во-вторых, смартфон поддерживает зарядку аж в 160 Ватт. Производитель заявляет, что с 0 до 100% смартфон зарядится за 10 минут.

На канале Tech Spurt это проверили, вот ролик. 10 минут не получилось, но получилось 13 минут 10 секунд - и это реально очень круто!

Сам смартфон в серию запущен не будет, но в компании сказали, что данные технологии будут использованы в каких-то других смартфонах компании.

Теги
Сортировать по алфавиту или записям
BLM 20
Calella 140
exler.ru 245
авто 427
видео 3755
вино 346
еда 478
ЕС 56
игры 114
ИИ 19
кино 1542
попы 185
СМИ 2574
софт 902
США 77
шоу 6