Адрес для входа в РФ: exler.wiki
Зацените Тома Круза.
@deeptomcruise Sports!
♬ original sound - Tom
@deeptomcruise ♬ original sound - Tom
@deeptomcruise I love magic!
♬ original sound - Tom
Так вот, это не Том Круз. Это аккаунт Deeptomcruise, то есть работает технология DeepFake. При этом уже настолько качественная, что подделку не смогли распознать даже специальные алгоритмы, направленные на выявление фейков.
Я читал, что это аккаунт Майлза Фишера - имитатора Тома Круза: Майлз на него сильно похож. А сами дипфейки - работы специалиста по визуальным эффектам Криса Юме.
В общем, похоже, что сейчас фейк от реальности отличить уже почти невозможно: на роликах выше не видно никаких следов наложения даже во всяких сложных сценах (обычно все-таки DeepFake можно было отличить).
И не только глюкометре. Речь идет об датчике, способном измерять такие параметры, как внутренняя температура тела, артериальное давление, гидратация тела, уровни алкоголя, лактата и глюкозы. Так, по крайней мере, заявляет производитель.
Кратко.
Компания Rockley Photonics, ведущая мировая компания в области кремниевой фотоники, представила полную комплексную цифровую сенсорную систему "клиника на запястье".
Сенсорный модуль Rockley позволят носимым устройствам отслеживать несколько биомаркеров, включая внутреннюю температуру тела, артериальное давление, гидратацию тела, тенденции алкоголя, лактата и глюкозы, среди прочего.
Полнофункциональное сенсорное решение Rockley включает браслет, который содержит модуль датчика и взаимодействует с настраиваемыми облачными аналитическими механизмами через приложение для смартфонов Rockley. В ближайшие месяцы браслет будет использоваться в обследованиях людей.
Центральным элементом сенсорной системы является неинвазивный сенсорный модуль, основанный на спектроскопической технологии платформы Rockley. В отличие от более распространенных решений для спектроскопии, в которых используются источники света с широким спектром, сенсорный модуль Rockley генерирует большое количество дискретных выходных сигналов лазера от одного кремниевого чипа, охватывающего широкий оптический диапазон. Датчик неинвазивно исследует под кожей для анализа крови, межклеточных жидкостей и различных слоев кожи на предмет определенных компонентов и физических явлений, из чего потом делаются выводы. Ранее такие биомаркеры можно было измерить только с помощью настольного оборудования.
Ну, звучит-то это все очень интересно, но, как обычно, нужно смотреть на то, как это все будет выглядеть на практике. А то слухи-то о подобных устройствах идут давно, но воз и ныне там.
Также теперь понятно, откуда растут уши слухов о том, что новые часы Apple смогут определять уровень глюкозы в крови. Дело в том, что Apple - крупнейший клиент Rockley Photonics и имеет с компанией соглашение об использовании их разработок в своих носимых устройствах. Да и в Rockley Photonics заявляли, что их датчики могут быть установлены в умных часах уже в следующем году, так что вполне возможно, что эта технология появится в какой-то новой модели Apple Watch (например, в Apple Watch 8).
Ну, посмотрим. Все это очень интересно.
Яндекс таки запустил сервис автоматического закадрового перевода англоязычных видео в Youtube и Vimeo.
Пользователям "Яндекс.Браузера" и в мобильных приложениях стал доступен закадровый перевод видео с английского языка. Поддерживаются как мужской, так и женский голос, сообщается в пресс-релизе "Яндекса".
Перевод происходит в несколько этапов. Сначала ИИ распознает речь, превращает ее в текст и с помощью нейросетей разбивает на предложения. Потом определяет пол говорящего, переводит предложения на русский язык и синтезирует голос. Остается совместить перевод с видеорядом. Это совсем не тривиальная задача, потому что в русском языке предложения длиннее, чем в английском. Здесь на помощь снова приходят нейросети.
Поэтому процесс перевода занимает несколько минут - для этого нужно поставить видео на паузу и подождать. Как только все будет готово, пользователю придет соответствующее уведомление.
Согласно заявлению компании, поддерживаются любые англоязычные видео на YouTube, Vimeo и других популярных платформах. Перевод доступен в "Яндекс.Браузере" для Windows, macOS, Linux и Android и в мобильном приложении для Android и iOS. (Отсюда.)
В Яндекс.Браузере при просмотре англоязычных роликов на соответствующем сервисе появляется вот такая надпись.
Если нажать на кнопку включить, то может сразу пойти автоматический перевод, а может появиться вот такая надпись, и тогда придется подождать, прежде чем перевод будет готов.
Погонял разные ролики. Вообще очень прикольно и прямо-таки впечатляет. Понятно, что лучше всего включать перевод на сольных выступлениях, ну и понятно, что там будет немало всяких огрехов (это совершенно неудивительно), но в общем и целом понять смысл того, о чем говорится - вполне можно. И это круто!
Заметно хуже, когда разговаривают несколько людей и еще друг друга перебивают, но и с таким вариантом сервис более или менее справился.
Я неоднократно читал о различных технологиях улучшения изображений и вообще за этими разработками стараюсь следить - это очень важно и будет востребовано.
Сейчас корпорация Google объявила о создании новой технологии улучшения изображения, повышающей разрешение картинки аж в 16 раз. Цитирую отсюда.
Разработчики Google представили новую технологию, благодаря которой можно значительно улучшить качество исходного изображения. Искусственный интеллект попиксельно восстанавливает даже сильно сжатую картинку, приближая её к оригиналу.
Команда Brain Team продемонстрировала два алгоритма генерации фотографий. Используя технологию SR3, предусматривающую апскейлинг с помощью повторного уточнения, нейросеть увеличивает разрешение картинки, достраивая недостающие части из гауссовского шума. Обучение этой модели построено на методах искажения изображения и последующем обратном процессе.
Вторая диффузная модель — CDM. Для её обучения специалисты использовали миллионы изображений в высоком разрешении из базы данных ImageNet. Улучшение качества картинки она производит каскадно — в несколько этапов. Так, исходник размером 32х32 пикселя улучшается до 64x64, а затем до 256x256 (в 8 раз), а оригинальное изображение с разрешением 64x64 точки обрабатывается по схожей схеме до 256x256 и 1024x1024 пикселя (масштабирование 16x).
По заверению разработчиков, новая технология превосходит по качеству восстановления фотографий такие современные методы ИИ-масштабирования, как BigGAN-deep и VQ-VAE-2.
На сегодня Google лишь продемонстрировала результаты работы алгоритмов посредством коротких анимаций, но ещё не публиковала подробностей о новой технологии. Когда компания планирует представить коммерческий вариант ИИ-апскейлера, не уточняется.
Выглядит это все очень интересно, но, как обычно, буду ждать, когда предоставят готовый инструмент, с помощью которого я смогу посмотреть, как это работает вживую.
Ну что, это круто, если все так и есть. Жду, когда появится - сравню с aptX HD, AAC и LDAC. Интересно, это вообще можно будет услышать? А то без хорошо прогретой бескислородной меди толком-то и не поймешь!
Qualcomm представила свою новую разработку — кодек aptX Lossless. По заверению компании, его использование обеспечит сторонникам Bluetooth-акустики качество аудио, сопоставимое с прослушиванием CD при классическом проводном подключении.
Представители Qualcomm подчёркивают, что при использовании гаджетов, которые получат поддержку кодека aptX Lossless, их владельцы смогут рассчитывать на значение битрейта до 1,4 Мбит/с. Поскольку пропускная способность самого Bluetooth-канала технически составляет 1 Мбит/с, компании пришлось применить специальную технологию потокового сжатия.
Впрочем, эксперты отмечают, что специально продуманные алгоритмы не приводят к ухудшению качества дорожки. Звук на входе идентичен выходному сигналу — 16 бит / 44,1 кГц (CD-качество). Новый кодек будет входить в состав технологии Snapdragon Sound, представленной в начале весны 2021 года.
Пока что ни одна из выпущенных Qualcomm мобильных платформ не поддерживает новую технологию. Ожидается, что выход на рынок первых смартфонов, совместимых со Snapdragon Sound и aptX Lossless, состоится уже в следующем году. (Отсюда.)
У замечательного Вастрика поразительно интересная (как обычно) статья о машинном переводе: о том, как это все начиналось, как развивалось, что с этим происходит сейчас, какие в этой области существуют прорывы и в чем заключаются проблемы. Кого интересует эта тема - очень рекомендую почитать: Вастрик, как обычно, прочитал кучу различных материалов, чтобы потом изложить все последовательно и понятно. Плюс - он реально хорошо и остроумно пишет, так что читать его - одно удовольствие. Цитировать ничего не буду, там просто нужно читать.
Кстати, должен заметить, что с появлением искусственного интеллекта машинный перевод стал заметно более продвинутым и видно, что это все активно развивается. Если раньше на перевод чего-то чуть более сложного, чем самая простейшая фраза, без слез смотреть было невозможно, то сейчас уже уровень машинного перевода заметно повысился. И машинные переводчики стали неплохо справляться даже со всякими непростыми временами, насколько я могу судить.
Кстати, что интересно, в моем личном рейтинг Яндекс.Переводчик обгоняет переводчик Google. Да-да, я много раз их сравнивал, и теперь пользуюсь практически только Яндекс.Переводчиком: он, на мой взгляд, более удобный и продвинутый. И дело не только в том, что ЯП определяет язык, на котором ты пишешь и автоматически меняет направление перевода, если это требуется. (Пример. В ЯП выставлен перевод с испанского на русский. Я в испанском разделе начинаю писать на русском - ЯП сам меняет направление перевода и правильно выдает результат.) А переводчик Google такое не умеет делать в упор.
Но у Яндекса также значительно разнообразнее связанные слова и намного разнообразнее реальные примеры употребления, что мне очень помогает.
Вот, сравните.
Остальные сервисы я обычно использую гугловские, особенно поиск. Но в плане автоматического перевода Яндекс тут лично у меня вырвался вперед, как ни странно.
Сервис называется Neural.love. Нейросеть умеет обрабатывать фото и видео, делая реалистичными (как бы фото) рисунки и картинки. Также умеет раскрашивать черно-белые фото, но это не так интересно.
Вот пример фото.
Портреты и картинки - значительно интереснее.
Компания готовится к запуску функции отслеживания снимков в галереях смартфонов на предмет наличия незаконного контента. Сканирование будет проводиться непосредственно на iPhone, но в случае обнаружения подозрительных изображений нейросеть сообщит об этом в Apple. Информацию о нововведении, опубликованную изданием Financial Times, уже подтвердили представители бренда.
По заявлению Apple, фирменный алгоритм neuralMatch позволяет локально сканировать фотографии владельцев iPhone без их отправки на облачные сервера. «Подозрительность» снимков выявляется путём сопоставления с базой данных Национального центра поиска пропавших и эксплуатируемых детей в США, включающей более 200 000 изображений.
С помощью алгоритмов хеширования система пометит сомнительные фото — и если количество отметок достигнет определённой цифры, neuralMatch предупредит Apple о возможном обнаружении незаконного контента. После этого сотрудники компании примут решение об обращении в правоохранительные органы. Схожую систему проверки изображений под названием PhotoDNA уже применяют и другие крупные компании, такие как Facebook, Twitter и Google.
Кроме того, в iOS 15 приложение «Сообщения» будет использовать машинное обучение на устройстве, чтобы предупреждать пользователя, если он намерен отправить конфиденциальный контент. Если гаджетом пользуется ребёнок, его родители также получат оповещение об отправке подозрительных файлов с устройства. При этом, как утверждает Apple, частные сообщения будут нечитаемыми для компании. Вендор сообщил, что система вскоре будет развёрнута в США, но не уточнил, будет ли она запущена глобально и когда это произойдет.
Комментируя нововведение, профессор Университета Джона Хопкинса и криптограф Мэтью Грин отметил, что опасается попадания инструмента в руки мошенников, а сам алгоритм хеширования не исключает генерации ложных результатов. Представители бренда на заявление специалиста не ответили.
Upd: компания подтвердила, что не сможет сканировать изображения на устройствах пользователей, отключивших функцию «Фото iCloud», поскольку отметки о сомнительном содержимом прикрепляются к копиям фотографий в облачном хранилище, а не к оригинальным изображениям. (Отсюда.)
М-да. Рыться в фотографиях пользователя непосредственно на его смартфоне, помечать "подозрительные", а информацию об этих "подозрительных" еще и сливать правоохранительным органам - это, конечно, красиво. Особенно когда знаешь, насколько "эффективно" работают все эти механизмы распознавания и искусственного интеллекта.
Что-то становится все как-то грустнее и грустнее. Нет, есть, конечно, способы этому противостоять, но тенденции как-то совсем не радуют.
Запас хода в 1000 км и зарядка за 5-8 минут. GAC Aion V EV с графеновой батареей готов совершить революцию на рынке?
Китайская компания GAC показала на выставке Technology Day грядущий электромобиль Aion V EV, который в первую очередь впечатляет своей быстрой зарядкой.
Запас хода в 1000 км и зарядка за 5-8 минут. GAC Aion V EV с графеновой батареей готов совершить революцию на рынке?Пока многие мировые бренды только обещают, GAC уже демонстрирует автомобильную зарядку, способную кардинально изменить ситуацию на рынке. По заявлению производителя, в зависимости от версии для зарядки от 0% до 80% будет достаточно 16 или даже всего 8 минут!
Демонстрация касалась кроссовера Aion V EV, который выйдет на рынок уже осенью. Феноменальных показателей удалось добиться благодаря использованию графеновых аккумуляторов.
Если говорить подробнее, то модификация Aion V EV 3С с батареей, обеспечивающей запас хода в 500 км, сможет заряжаться с 0% до 80% за 16 минут, а с 30% до 80% — всего за 10 минут. Модификация Aion V EV 6С сможет похвастаться показателями 8 и 5 минут соответственно, предлагая запас хода до 1000 км.
Во время демонстрации зарядное устройство показало мощность 481 кВт. При этом GAC утверждает, что такие показатели никак не сказываются на надёжности аккумулятора, и он должен обеспечить до 1 млн пробега, правда, при комнатной температуре. (Отсюда.)
Зарядка за 8 минут и запас хода до 1000 километров - это очень интересно, да. Но показы на выставке - это одно, а реальная эксплуатация - совсем другое. Подождем, когда появятся в продаже и когда станет известно реальное положение дел.
Слушайте, это реально гениальная идея! Задрали владельцы собак, которые не убирают за своими питомцами! А не убирают очень многие и есть твари, которые не убирают за собакой, даже когда она наделала во дворе, где играют дети. (Лично видел одного такого дедка-каталана, который даже после замечания дерьмо его собаки убирать не стал.) С введением же подобных штрафов все станут убирать как миленькие! Очень надеюсь, что Испания последует этому замечательному примеру.
Власти Израиля создадут базу собачьих фекалий. Это не шутка — такая база позволит собирать ДНК четвероногих и штрафовать их владельцев.
В Тель-Авиве чиновники устали получать тысячи жалоб на неубранные собачьи экскременты в общественных местах, поэтому какой-то злой гений придумал и протолкнул революционную схему: чтобы избавить город от фекалий, нужно их собирать, проводить ДНК-тестирование и забивать полученные образцы в базу.
Дальше начинают крутиться бюрократические механизмы. В Израиле запрещено держать дома собаку без специальной лицензии, но недавно на фоне борьбы с фекалиями к этому закону в Тель-Авиве приняли поправку. Теперь для продления или получения новой лицензии жителям города необходимо сдать генетические данные питомца.
Таким образом, специалистам останется лишь сопоставить ДНК, полученные из фекалий, с имеющейся базой. В случае совпадения владелец четырёхлапого получит письмо с требованием оплатить штраф и покрыть стоимость ДНК-теста — в сумме получается 472 шекеля, или 10,7 тыс. рублей. (Отсюда.)
Я бы эту новость и перепечатывать не стал - о разработках неинвазивных глюкометров время от времени сообщается давно, а серийных устройств до сих пор как не было, так и нет, - однако здесь утверждается, что вот прямо-таки завод уже строится, и что с 2023 года начнут выпускать серийно.
Данный глюкометр уровень сахара определяет по слюне. Что звучит совсем странно, конечно. Мне не очень понятно, как по слюне вообще можно определить уровень сахара в крови. Но в заметке говорится именно это.
Физик Пол Дастур из Университета Ньюкасла создал биосенсор для диагностики уровня сахара в крови. В отличие от существующих методов, его прибор не требует болезненного прокалывания пальца, что позволит улучшить качество жизни сотням миллионам людей с диабетом по всему миру.
Тест на диабетИдея создания подобного устройства пришла к Полу, когда он заглянул на работу к своей жене. Она работает учительницей в начальной школе и вынуждена делать нескольким малышам болезненные уколы перед каждым приёмом пищи. Так Пол узнал, что больше 460 миллионов человек по всей планете регулярно проверяют свой уровень глюкозы. Результатом многолетних исследований стал биосенсор, похожий на пластинку жевательной резинки. Он способен проводить диагностику сахара на основе слюны человека.
Главное, что это не очередная разработка, которая не пойдёт дальше подобных новостей. Строительство фабрики по массовому производству биосенсора стартует уже в текущем году, а первые датчики сойдут с конвейера в 2023-м. Автор проекта уверяет, что в будущем биосенсор можно использовать для анализа 130 различных показателей, в том числе онкомаркеров, гормонов и различных аллергенов. Кроме того, он может стать основным инструментом для диагностики коронавируса. С этой целью были подключены исследователи из Института биологической инженерии Висса при Гарвардском университете. (Отсюда.)
Читаю новость о том, что в "Яндексе" создали "не имеющую аналогов в мире технологию автоматического перевода видеороликов".
«Яндекс» создал технологию машинного перевода видео. С ее помощью видеоролики зарубежных авторов смогут посмотреть даже те, кто не владеет иностранными языками – разработка «Яндекса» в автоматическом режиме переведет видео на русский язык и озвучит его закадровым голосом. Об этом CNews рассказали представители компании. По заявлению создателей, технология не имеет аналогов в мире.
На сегодняшний день у «Яндекса» готов прототип системы машинного перевода. Сейчас он работает только с роликами на английском языке. Разработчики утверждают, что опробовали технологию на видеозаписях на самые разные темы: изменение климата, машинное обучение, история Плутона.
Пользователям функция машинного перевода видеороликов доступна в фирменном браузере «Яндекса» для операционных систем Windows и macOS, однако лишь при просмотре ограниченного числа роликов. Специалисты компании создали на Youtube-канале "Yet another browser" подборку из 12 видео (плейлист «Перевод видео»), с помощью которых любой желающий сможет убедиться в работоспособности технологии. В ближайшее время пользователи получат возможность самостоятельно выбирать, какие именно ролики переводить, обещают в «Яндексе».
Над созданием прототипа работало несколько команд. Сейчас в нем применяются технология синтеза речи, разработки «Яндекс.переводчика» и биометрия. Последняя используется для определения пола говорящего – это, как отмечают в «Яндексе», важно и для перевода, и для синтеза речи, в частности, позволяет подобрать подходящий голос для закадровой озвучки.
Технология «Яндекса» поддерживает синхронизацию закадрового голоса с видеорядом, при необходимости корректируя темп речи виртуального переводчика и добавляя в нее паузы. Синхронизация необходима, поскольку исходные и переведенные реплики могут значительно отличаться по длительности – например, в английском языке часто используемые фразы нередко лаконичнее своих русских аналогов.
Для тех, кто внимательно следит за тем, что происходит в мире машинных переводов, все это звучит совершеннейшей фантастикой. Обычные-то текстовые переводчики пока, мягко говоря, далеки от совершенства (хотя нельзя не признать, что с каждым годом они работают все лучше и лучше - благодаря нейросетям), а уж автоматическое воспроизведение текста голосом - это все слушается очень криво.
А тут нам утверждают, что они научились не только распознавать голос в ролике, не только качественно переводить его на другой язык, но и озвучивать на другом языке? Мне в это верится с большим трудом.
Компания предлагает послушать типа как "образцы работы технологии". Сделать это можно только в Яндекс.Браузере, для чего я его поставил, в нем в Yotube открыть плейлист "Перевод видео", и там можно включить перевод.
Для тех, кому не хочется со всем этим возиться - ставить Яндекс.Браузер и так далее, - я заснял небольшой ролик о том, как это все работает.
Так вот. То, что я вижу и слышу в ролике - это даже рядом никакой не "автоматический перевод". Это перевод, явно сделанный профессиональным переводчиком и озвученный профессиональным актером (безусловно, живым человеком, это даже рядом не автоматическая озвучка, как в ридерах с такой функцией).
Ну и в чем юмор, ребята? Ну сделали вы войсовер для нескольких роликов, молодцы. Но на черта это выдавать за "автоматический перевод", когда там за версту понятно, что это никакой не автоматический перевод?
Если вы работаете над этой технологией, но пока вам нечего показать - ну так и напишите, что работаете, но показать пока нечего.
Если вы создали подобную технологию, она работает, и вы готовы ее продемонстрировать - ну так разрешите ее использовать для любых роликов, оговорив, конечно, что голос человека в ролике должен быть только один. Тогда хоть можно будет понять, что она собой представляет.
А так - вообще не пойми что. Показывать обычный войсовер в качестве "демонстрации технологии автоматического перевода" - это как-то очень и очень странно.
На выставке MWC в Барселоне показали новый смартфон Concept Phone 2021. Это концепт, что прямо-таки следует из названия, в серии он выпущен не будет, однако это полностью рабочая версия, и компания разослала несколько экземпляров данного смартфона известным техноблогерам.
Что интересного в этом смартфоне?
Во-первых, его задняя крышка может менять свой цвет.
Помимо уникального рисунка в виде надписи NOW, задняя крышка выполнена с применением электрохромной и электролюминесцентной технологий. Благодаря этому поверхность способна менять цвет. Например, при входящем звонке она меняется с серебристого на синюю, а во время зарядки центральная область заполняется зелёным и мигает.
Это любопытная история, конечно.
Во-вторых, смартфон поддерживает зарядку аж в 160 Ватт. Производитель заявляет, что с 0 до 100% смартфон зарядится за 10 минут.
На канале Tech Spurt это проверили, вот ролик. 10 минут не получилось, но получилось 13 минут 10 секунд - и это реально очень круто!
Сам смартфон в серию запущен не будет, но в компании сказали, что данные технологии будут использованы в каких-то других смартфонах компании.
Да-да, именно перелет, и это неимоверно круто!
Летающий автомобиль AirCar совершил первый в истории для подобного типа транспортного средства междугородный полёт.
35-минутный полёт из Нитры в Братиславу был совершён 28 июня. Расстояние между этими городами составляет 96 км, что с учётом встречающихся населённых пунктов выливается примерно в 1 час езды на автомобиле. Лететь на автомобиле, как видим, почти вдвое быстрее.
На видео также запечатлён процесс трансформации AirCar из самолётного состояния в автомобильное. Это занимает около трёх минут.
В текущем виде AirCar Prototype 1 оснащается двигателем BMW мощностью 160 л.с. Имеется и парашют. Машина уже показала способность летать на высоте до 2500 м со скоростью до 190 км/ч.
AirCar Prototype 2 получит двигатель мощностью уже 300 л.с. и сертификат EASA CS-23. Такой аппарат сможет двигаться в воздухе со скоростью до 300 км/ч при дальности полёта до 1000 км. (Отсюда.)
Ну и вот ролик трансформации и полета. Прям будущее уже здесь!
Давно слежу за этой историей - созданием культивируемого мяса, то есть не заменителя мяса на основе растительной пищи, а натурального мяса, выращенного из клеток животных. Раньше данный процесс был очень дорогим, и цена конечного продукта была совершенно неподъемной, но вот теперь сообщают о том, что разработчикам из Future Meat удалось снизить стоимость до $20 за килограмм, что уже более или менее приемлемо.
Израильский стартап Future Meat Technologies объявил о запуске первого в мире коммерчески жизнеспособного предприятия по производству искусственного мяса. Future Meat построил линию для быстрого изготовления крупных партий мяса — стартап предлагает своим клиентам курицу, свинину и баранину. До конца этого года продукты Future Meat появятся в американских ресторанах, а в следующем году их стоимость упадет до $2 за 100 граммов.
Культивируемое мясо Future Meat — это не искусственный заменить мясных продуктов, собранный из растительных ингредиентов. Компания берет за основу несколько клеток реальных животных, а затем стимулирует их рост в специализированных инкубаторах. На выходе появляются полноценные куски мяса, неотличимые по своей структуре от стандартных продуктов и не требующие убоя животных.
«С самого начала все наши усилия были сосредоточены на масштабировании производства и снижении затрат, чтобы мы могли получить коммерчески жизнеспособный продукт. История здесь заключается не в том, чтобы получить премиальный продукт. Речь идет о поиске альтернативного способа производства мяса», — объяснил гендиректор Future Meat Ром Кшук.По словам Кшука, Future Meat удалось сократить стоимость получения искусственного мяса до $4 за 100 граммов — изначально производство было два раза дороже. И стартап не собирается останавливаться — в течение двух лет цена на продукты Future Meat упадет до $2 за 100 граммов. Таким образом компания обещает сделать покупку мяса без убоя не менее выгодным предложением, чем приобретение традиционного мяса.
Предприятие Future Meat универсально — стартап производит культивируемую курицу, свинину и баранину, а в ближайшем будущем начнет поставлять и говядину. Производственная мощность — 500 килограмм в день. Первый завод располагается в израильском городе Реховот, а второй может появиться в США — с этой целью стартап сейчас ведет переговоры с американскими регуляторами. Future Meat также обсуждает возможность поставок своих продуктов в американские рестораны, начиная с четвертого квартала 2021 года. (Отсюда.)
В издании Deep-Review.com - обзор умных весов Huawei Scale 3. Самое интересное в этом обзоре - подробное описание сути биоимпедансного анализа и того, какие именно параметры организма и каким образом эти (и другие) умные весы могут получать. Кому интересно знать, что это и откуда берется - почитайте.
Биоимпедансный анализ на Huawei Scale 3
На точность биоимпедансного анализа влияет множество факторов1, включая:
Обезвоживание организма. Это увеличивает электрическое сопротивление тела и ведет к значительной переоценке процента жира
Измерение после приема пищи или воды. Это может давать погрешность более 4% при измерении жира в организме
Физическая активность перед взвешиванием. Умеренные упражнения снижают электрическое сопротивление тела. Например, взвешивание сразу после 90-минутного упражнения средней интенсивности может завысить безжировую массу на 12 кг. Поэтому взвешивание нужно делать спустя несколько часов после тренировокЛучшее время для взвешивания — сразу после пробуждения. Таким образом вы исключаете многие негативные факторы.
Что касается непосредственно Huawei Scale 3, весы «измеряют» 11 показателей:
Вес
Индекс массы тела
Доля жира
Безжировая масса
Скелетная мышечная масса
Процент содержания воды в организме
Белок
Минеральный состав костей
Уровень висцерального жира
Базальный метаболизм
ПульсСлово «измеряют» написано в кавычках, так как в реальности весы измеряют при помощи электродов только один показатель — объем жидкости в организме (не считая пульса, который не имеет никакого отношения к составу тела).
Все остальные параметры вычисляются на базе этого показателя при помощи фирменного алгоритма Huawei TruFit.
Утверждается, что это самая большая в мире сферическая панорама Нью-Йорка. Увеличивайте масштаб при просмотре (колесом мышки или пальцами на смартфоне) - детализация там просто фантастически. Не очень понятно, как они вообще ухитрились это снять. .
Куда катится этот мир?! В Испании сделали робота для приготовления паэльи - "Robot that can cook a paella is causing quite a stir in Spain".
Этот робот, недавно представленный на выставке, производства компании br5 (Be a Robot 5 - это название робота из фильма "Короткое замыкание") демонстрировал, как он готовит паэлью из соответствующих ингредиентов (соус софрито, рис, бульон и морепродукты) на установке для приготовления паэльи компании Mimcook.
Разумеется, сам робот и его создатель 41-летний промышленный инженер Энрике Лилло, подверглись серьезной критике разгневанной общественности, которая заявила, что приготовление культового для всей Испании блюда каким-то роботом - это подрывание нравственных основ, духовных скреп, да и вообще - #кудакатитсяэтотмир!
Инженер же заявил, что раз люди используют электрическую выжималку для получения апельсинового сока, то не очень понятно, почему нельзя использовать другой аппарат для получения вкусной паэльи.
И Лилло даже заявил, что его робот, в отличие от живого человека, во время приготовления паэльи не отвлечется на сообщение по WhatsApp, а будет равномерно помешивать готовящийся рис.
Разработчик также заявляет, что робот - многофункциональный, и он может делать далеко не только паэлью, но также жареную картошку, гамбургеры, пиццу и так далее: ему лишь нужно предоставить нужные ингредиенты и соответствующий инструмент (плита, духовка), после чего включить нужную программу.
Также Энрике признался, что пробовал паэлью, приготовленную его роботом, и он был просто поражен тем, какой вкусной она получилась. Ни одна бабушка Консепсьон, ни один дедушка Юсбайо такую паэлью не сделают, кощунственно добавил Лилло.
P.S. При слове "роботизированная рука" в памяти тут же всплывает шикарный эпизод из "Теории большого взрыва".
Офигенное видео - Железный человек на службе Королевской морской пехоты Великобритании.
Это совместные испытания разработки компании Gravity Industries, которую создал британец Ричард Браунинг, он же и разрабатывал этот костюм.
С помощью технологии Deepfake наложили лицо нынешнего Майкла Джея Фокса на лицо его персонажа из "Назад в будущее II". И по ролику видно, насколько классно тогда поработали гримеры - почти один в один, фантастика просто!