Na terça-feira (16), a Apple revelou uma série de novos recursos de acessibilidade que estarão disponíveis em iPhones e iPads ainda este ano, incluindo ferramentas inovadoras que prometem replicar a voz do usuário em chamadas telefônicas após apenas 15 minutos de treinamento.
Entre as principais novidades, destaca-se o “Personal Voice”. Através dele, os usuários podem ler prompts de texto para gravar áudio e treinar a tecnologia para aprender e reproduzir sua própria voz. A ferramenta, denominada “Live Speech”, usa essa voz sintetizada para ler em voz alta o texto digitado pelo usuário durante chamadas telefônicas, conversas via FaceTime e interações pessoais. O recurso permite ainda que frases comumente usadas sejam salvas para uso em conversas ao vivo.
A Apple destaca que essas inovações são especialmente valiosas para pessoas com risco de perda de voz ao longo do tempo, como aquelas diagnosticadas com ELA (esclerose lateral amiotrófica). “A acessibilidade é parte integrante de tudo o que fazemos na Apple”, afirmou Sarah Herrlinger, diretora sênior de políticas e iniciativas globais de acessibilidade da Apple, em um post no blog da empresa. “Estes recursos inovadores foram concebidos com feedback de membros de comunidades de deficiência em cada etapa do processo, para apoiar um conjunto diversificado de usuários e ajudá-los a se conectar de novas maneiras”.
Apesar de trazer potencial para atender a uma necessidade genuína, esses recursos chegam em um momento em que os avanços na inteligência artificial (IA) têm levantado preocupações sobre a possibilidade de uso indevido de áudios e vídeos falsos convincentes, conhecidos como deepfakes, para enganar ou desinformar o público. Em resposta a essas preocupações, a Apple garante que o recurso Personal Voice utiliza aprendizado de máquina no próprio dispositivo para manter as informações dos usuários privadas e seguras.
Além dos recursos de voz, a Apple anunciou o Acesso Assistivo, que combina alguns dos aplicativos iOS mais populares, como FaceTime, Mensagens, Câmera, Fotos, Música e Telefone, em um único aplicativo de chamadas. A interface inclui botões de alto contraste, rótulos de texto grandes, uma opção para um teclado apenas com emojis e a capacidade de gravar mensagens de vídeo para usuários que preferem comunicações visuais ou de áudio.
A empresa também revelou que está expandindo os recursos de detecção do aplicativo Magnifier, destinado a usuários com deficiências visuais. A nova função “Point and Speak” facilita a interação com objetos físicos que possuem várias etiquetas de texto. Por exemplo, ao usar um eletrodoméstico, como um micro-ondas, o “Point and Speak” combina a entrada da câmera, o scanner LiDAR e o aprendizado de máquina no dispositivo para anunciar o texto de cada botão conforme o usuário move o dedo pelo teclado.
“O Point and Speak é integrado ao aplicativo Magnifier no iPhone e iPad, funciona bem com o VoiceOver e pode ser usado com outros recursos do Magnifier, como Detecção de Pessoas, Detecção de Porta e Descrições de Imagem, para ajudar os usuários a navegar em seu ambiente físico”, informou a Apple.
Outros recursos de acessibilidade anunciados pela Apple incluem a possibilidade de usuários com deficiência auditiva parear dispositivos de audição Made for iPhone diretamente com o Mac e personalizá-los para seu conforto auditivo, controle de voz que adiciona sugestões fonéticas para edição de texto, permitindo que usuários que digitam com a voz escolham a palavra correta entre várias que podem soar parecidas, e ajuste do tamanho do texto em apps do Mac, como Finder, Mensagens, Mail, Calendário e Notas, para usuários com baixa visão.