Спутник

235 891 подписчик

Свежие комментарии

  • Алексей Табаков
    мне как то накакать на Италию и прочие "цивилизованные" образования!Европейцы начали ...
  • Псевдоним Псевдонимов
    Это ещё бельгийцы вполноги играли...Букмекеры дали пр...
  • Псевдоним Псевдонимов
    Смотрел вчера матч ? Какой вывод ? Команда не готова:( От слова совсем...Никакого креатива. Тупо вешать на Дзюбу - в...Букмекеры дали пр...

Google представила новый интерфейс Android и объединила Wear OS с Tizen

Google представила новый интерфейс Android и объединила Wear OS с Tizen

Компания Google представила на конференции I/O новую версию Android с обновленным интерфейсом и объявила об создании новой операционной системы для умных часов на базе Wear OS, Tizen и наработок Fitbit. Кроме того, компания показала перспективные разработки, в том числе систему объемной видеосвязи с экраном светового поля и универсальный разговорный алгоритм. Трансляция презентации проходила на YouTube-канале Google. Бета-версия Android 12 Главным отличием новой версии Android стал переработанный интерфейс операционной системы с адаптивными цветами. Система будет анализировать цвета на обоях экрана и создавать палитру основных цветов, которые будут использоваться в различных частях интерфейса: фонах, кнопках и других элементах. Также поменялся сам стиль многих элементов. Разработчики отмечают, что изменения коснулись и плавности анимаций, которую удалось значительно повысить благодаря оптимизации операционной системы и графического стека. Наконец, в систему добавили множество небольших деталей. К примеру, экран будет включаться не мгновенно, а начиная с того места, в котором пользователь начал взаимодействовать с устройством. Например, если он нажал на кнопку включения, то интерфейс начнет «появляться» из соответствующей части экрана.

Изначально новый интерфейс появится в смартфонах Google Pixel, а в будущем будет использоваться в других смартфонах и других продуктах Google, а не только Android. Довольно много изменений в Android 12 касаются безопасности и конфиденциальности. Например, в системе появились индикаторы работы микрофона и камеры, возможность давать приложениям не точное, а примерное местоположение, а также отдельный раздел для хранения данных локальных алгоритмов машинного обучения, изолированный от остальной операционной системы. Бета-версия Android 12 доступна начиная с 18 мая для устройств от 11 производителей. Проверить совместимость своего устройства и присоединиться к программе тестирования можно здесь . Финальная версия системы будет выпущена осенью. Стоит отметить, что в первой бета-версии нет части анонсированных функций, в том числе нового интерфейса. Объединенная операционная система для умных часов В последние несколько лет Google почти не развивала операционную систему Wear OS, предназначенную для умных часов, и фактически проигрывала конкуренцию Tizen, которую использовала на своих умных часах Samsung. На конференции I/O Google и Samsung объявили об объединении своих усилий и совмещении в одной операционной системе наработок Wear OS, Tizen и Fitbit, которую Google приобрела в 2019 году (до этого Fitbit получила наработки по умным часам Pebble). Google утверждает, что это позволит значительно повысить производительность системы и время работы от аккумулятора, сохранив совместимость с приложениями для Android. Также в систему добавят новые функции, к примеру, возможность навигации при помощи кнопок, локальное хранение музыки в стриминговом сервисе YouTube Music и фитнес-функции из Fitbit. Новые алгоритмы На презентации Google показала перспективные алгоритмы для взаимодействия с пользователем. Один из них — это нейросетевая разговорная модель LaMDA (Language Model for Dialogue Applications). Она была разработана и обучена для открытых разговоров на произвольные темы, а не ответов на конкретные вопросы и разговоров по стандартным сценариям. Алгоритм умеет адаптироваться к изменению темы во время разговора, как это могут делать люди, но обычно не могут компьютеры. Компания показала два примера, в одном из которых алгоритм играл роль Плутона и отвечал на вопросы о себе, а в другом был бумажным самолетиком: Компания не раскрывает технические особенности работы алгоритма, но отмечает, что он основан на предыдущем разговорном агенте, статья о котором доступна на arXiv.org. Пока LaMDA не используется в продуктах компании, но в будущем Google планирует внедрить его в Google Assistant и поиск. Другой перспективный алгоритм, который Google показала на I/O — это мультимодальный алгоритм MUM (Multitask Unified Model). Он обучен на огромном массиве данных на 75 языках и, что важнее, способен работать с данными разных типов: сейчас это тексты и изображения, а в будущем разработчики планируют научить его работать с видео и аудио. Мультимодальность позволяет ему формировать более полные ответы на вопросы пользователей. Например, если пользователь покажет фото туристических ботинок и спросит, может ли он подняться в них на гору Фудзи, алгоритм поймет запрос, ответит и дополнительно предложит список оборудования, которое может пригодиться для похода в горы. Также компания рассказала о нескольких других алгоритмах. Например, она доработала алгоритмы камеры смартфонов Pixel, обучив их на большом датасете фотографий людей с темным цветом кожи. В частности, это позволит более реалистично передавать цвет и яркость кожи, а также качественнее отделять волосы на фото от фона, что, например, используется для создания размытого фона в портретном режиме. До конца 2021 года компания добавит в поиск пилотный проект функции скрининга 288 заболеваний кожи. Для этого пользователю нужно будет навести камеру смартфона на тело, после чего алгоритмы проанализируют кадры, покажут похожие состояния с описанием и посоветуют обратиться к специалисту. Система объемной видеосвязи В конце презентации компания показала прототип системы для объемных видеозвонков. Она представляет собой два стенда (для двух удаленных собеседников), в каждом из которых есть экран светового поля, позволяющий видеть объемное изображение без очков или каких-либо допольнительных устройств, а также датчики, с помощью которых система в реальном времени формирует 3D-модель человека: Это не первая разработка Google в области светопольных экранов и камер. В прошлом году исследователи из компании создали алгоритмы и камеру для съемки и синтеза светопольных видеороликах, а также научились сжимать их для передачи через интернет. Григорий Копиев

 

Ссылка на первоисточник

Картина дня

наверх