A Apple anunciou na terça-feira, 13, uma nova leva de recursos de acessibilidade que serão lançados até o final deste ano. A principal novidade está no suporte a implantes cerebrais: a empresa confirmou que trabalha em um novo protocolo de controle de dispositivos por sinais neurais, desenvolvido para se integrar ao iPhone, iPad e outros produtos do ecossistema da marca. O projeto está sendo construído em parceria com a startup Synchron, especializada em interfaces cérebro-computador (BCIs, na sigla em inglês).
Segundo a empresa, o protocolo será incorporado ao recurso Switch Control, usado para controlar dispositivos por meio de movimentos simples ou sensores alternativos, e adaptado para receber comandos diretamente do cérebro, sem necessidade de movimento físico.
Ainda sem data específica para estreia, a ferramenta deve beneficiar pessoas com deficiências motoras severas, permitindo navegação e interação com o sistema operacional da Apple usando apenas sinais cerebrais captados por implantes.
Rótulos, braille e leitura assistida: veja as demais novidades anunciadas
Além do suporte futuro a implantes cerebrais, a Apple também anunciou ferramentas de acessibilidade voltadas a usuários com deficiência visual, auditiva ou cognitiva.
Um dos novos recursos é o Rótulo nutricional de acessibilidade, que trará informações detalhadas sobre os recursos inclusivos oferecidos por apps e jogos na App Store. Com a mudança, usuários poderão verificar antes do download se o app é compatível com tecnologias como VoiceOver, Controle por voz e Contraste aumentado.
Outra novidade é o Braille access, sistema que transforma o iPhone, iPad, Mac e o Apple Vision Pro em anotadores braille integrados. Com ele, é possível digitar, fazer cálculos e abrir arquivos no formato BRF (Braille Ready Format), com suporte ao Nemeth Braille, código usado em conteúdos de matemática e ciência.
Usuários com baixa visão também passam a contar com o aplicativo Lupa para Mac, que amplia objetos no ambiente por meio da câmera do computador. O app se conecta a webcams externas ou ao iPhone e pode ser usado em conjunto com o novo Leitor de acessibilidade, um modo de leitura integrado ao sistema com suporte para fontes maiores, espaçamento ajustável e leitura em voz alta.
Para pessoas com deficiência auditiva, o Escuta ao vivo passa a integrar o Apple Watch, com transcrição em tempo real via Legendas ao vivo. A funcionalidade transforma o iPhone em microfone remoto e exibe a transcrição diretamente no pulso do usuário, sem necessidade do celular.
No Apple Vision Pro, o sistema visionOS recebeu melhorias como o Zoom de ambiente e o Reconhecimento ao vivo, que descreve objetos e lê textos com auxílio de inteligência artificial (IA). Também foi liberada uma nova API para que aplicativos como o Be My Eyes possam oferecer assistência visual em tempo real a partir da câmera principal do dispositivo.
Outras atualizações incluem:
- Personal Voice mais rápido e criação de voz com apenas 10 frases;
- Sons de fundo com novos controles de equalização, automações e pausa automática;
- Music Haptics com opções de vibração para vocais e instrumentos;
- Reconhecimento de som com alerta para quando o nome do usuário é chamado;
- Controle por voz com sincronização de vocabulário e suporte expandido a novos idiomas;
- Vehicle Motion Cues para reduzir enjoo em veículos, agora também disponível no Mac;
- Compartilhamento de configurações de acessibilidade, permitindo transferir ajustes para outro dispositivo temporariamente;
- Assistive Access com novo app simplificado para Apple TV, voltado a usuários com deficiência intelectual ou cognitiva;
- CarPlay com suporte a texto grande e alertas de som (como choro de bebê ou sirenes);
- Rastreamento ocular e de cabeça com melhorias para controle do sistema e digitação assistida por permanência ou QuickPath.
Todos os recursos serão disponibilizados até o fim do ano, de forma gradual, com atualizações de sistema para iOS, iPadOS, macOS, visionOS e watchOS.
Estadão Conteúdo