fbpx

Sidebar

25
Qui, Abr

Google investe em acessibilidade digital

Notícias EAD

Estima-se que cerca de 1 bilhão de pessoas no mundo têm algum tipo de deficiência.

Estima-se que cerca de 1 bilhão de pessoas no mundo têm algum tipo de deficiência.

O Google apresentou, recentemente, ferramentas de acessibilidade em fase de teste. A companhia informou que essa é uma das suas prioridades. Dados apontam que 1 bilhão de pessoas no mundo têm algum tipo de deficiência. “Não achamos que um problema esteja resolvido até que o tenhamos resolvido para todos. A grande promessa da tecnologia é dar a todos o mesmo poder para atingir seus objetivos”, diz o CEO do Google, Sundar Pichai.

Durante o evento Acessibilidade Show and Tell, na última quarta-feira, 6, os especialistas da companhia apresentaram cinco novas ferramentas inteligentes de acessibilidade digital: Live Transcribe, Live Caption, Sound Amplifier, Lookout e Project Relate. “Diversos fatores podem afetar a maneira de fala de alguém e isso pode realmente criar um grande problema com a comunicação, especialmente com dispositivos, mas também com outras pessoas. Sou pessoalmente testemunha disso. Quando o primeiro marido da minha irmã foi diagnosticado com ELA, em curto período de tempo seu discurso foi afetado e tornou-se muito difícil para ele se comunicar com outras pessoas. Certamente, senti que a tecnologia deveria ser capaz de ajudar as pessoas nesse tipo de situação. E, felizmente, os avanços na inteligência artificial surgiram e realmente nos capacitaram a fazer muito mais do que jamais foi possível antes”, comenta Scott Adams, product manager do Google.

Conheça o ExpertEAD e tire seu curso do papel

Ferramentas
O Live Transcribe é um aplicativo que transforma a fala do mundo real em legendas instantâneas usando apenas o microfone do telefone, permitindo assim que pessoas surdas ou com deficiência auditiva vejam transcrições em tempo real das conversas acontecendo ao seu redor, o que os ajuda a se comunicar melhor. A ferramenta suporta tradução instantânea em diferentes idiomas falados durante a conversação e está disponível em mais de 70 idiomas e dialetos. A novidade também permite conversas bidirecionais através de um teclado de meio-back para usuários que não podem ou não querem falar, e se conecta com microfones externos para melhorar a precisão da transcrição. Já é possível usar o Live Transcribe habilitando-o em configurações de acessibilidade a partir do botão de acessibilidade na barra de navegação.

Já o Live Caption legenda automaticamente o áudio de vídeos, podcasts, mensagens de áudio e chamadas telefônicas nos dispositivos. A ferramenta funciona inclusive off-line e em ligações e está disponível para Chrome e Android. A diferença entre o Live Transcribe e o Live Caption é que o primeiro fornece transcrição contínua de fala em tempo real de áudio externo do aparelho, enquanto o segudo faz o mesmo, só que captando o áudio que sai dos dispositivos ou plataformas. “Esses sistemas estão usando um modelo ML ou modelo de aprendizado de máquina para converter os dados de áudio bruto na saída desejada. Eles fazem isso primeiro transferindo esse sinal de áudio bruto para algo que é como uma imagem, uma versão bidimensional do discurso. Um modelo de machine learning faz diversos cálculos nesse quadro e depois tenta interpretar o que isso significa em termos de texto ou linguagem falada. Esses sistemas são incrivelmente poderosos, foram treinados em grandes conjuntos de exemplos de dados de 10 de milhões de expressões de fala, e é isso que permite que um produto como Live Transcribe seja tão preciso. Eles nunca são perfeitos, mas a precisão está melhorando continuamente, especialmente à medida que temos mais e mais exemplos que podemos lançar nesses sistemas”, revela Adams.

Com o Sound Amplifier, agora é possível aumentar o volume de áudio ao seu redor para melhorar a clareza auditiva. O usuário pode usar o amplificador de som no telefone Android com fones de ouvido para filtrar, aumentar e amplificar os sons em seu ambiente. A tecnologia aumenta sons silenciosos, não impulsiona sons altos e permite personalizar as configurações de aprimoramento de som e aplicar redução de ruído para minimizar o ruído de fundo distrativo através de controles deslizantes.

Conheça o ExpertEAD e tire seu curso do papel

O Lookout é um recurso habilitado com inteligência artificial para ajudar pessoas com baixa visão e cegueira saber quais imagens estão na tela. Usando a câmera do telefone, a ferramenta torna mais fácil a obtenção de mais informações sobre o mundo e ajuda a realizar tarefas diárias de forma mais eficientes, como classificar e-mails, guardar mantimentos, ler rótulos de alimentos etc. A novidade está disponível globalmente, exceto na China, e suporta 23 idiomas, incluindo inglês, francês, alemão, hindi e espanhol. O Lookout está disponível em dispositivos com 1GB de RAM ou mais, tornando-o compatível com 97% dos modelos Android e acessível a smartphones de nível básico.

Por fim, o Project Relate chega como aplicativo que permite que qualquer pessoa com deficiência de fala tenha modelo personalizado que possa ser usado para transcrever sua fala em texto, repetindo o que é dito e interagindo com as assistentes digitais. O Project Relate tem três modalidades: Ouça, para transcrever a fala para texto em tempo real para digitar mensagens e ajudar os outros a entendê-lo enquanto o usuário fala; Repita, que converte a fala em fala sintetizada clara, para conversas presenciais ou interações com dispositivo ativado por voz; e assistente, onde é possível usar a assistente do Google no aplicativo para retornar resultados de pesquisa mais rápidos e precisos. A ferramenta está disponível em beta fechado, o que significa que os indivíduos devem se inscrever através do site Project Relate para receber um convite para participar. A versão inicial do aplicativo só estará recrutando testadores iniciantes de língua inglesa da Austrália, Canadá, Nova Zelândia e Estados Unidos.

Fonte: Meio e Mensagem
Conheça o ExpertEAD e tire seu curso do papel