Esta semana o Google agitou a blogosfera e os sites de notícias tecnológicas ao lançar seu aplicativo para iPhone com reconhecimento vocal. E o sistema é tão bem feito que você nem precisa apertar nenhum botão para começar a falar: basta colocar o aparelho perto do ouvido para a pesquisa por voz começar automaticamente. Isso graças ao uso dos sensores do iPhone, que identificam o rosto próximo da tela.
Seria tudo normal, se não fosse por um detalhe: não é possível utilizar estes mesmos sensores com os frameworks públicos disponíveis no SDK atual.
Como muitos já sabem, o SDK (kit de desenvolvimento de aplicativos) do iPhone não permite que os programas utilizem toda a capacidade do telefone, até mesmo por uma questão de segurança. Nenhum programa pode, por exemplo, fazer uma ligação ou enviar um email sem antes passar pelos aplicativos nativos para isso (Phone e Mail, respectivamente). Com os sensores de proximidade é a mesma coisa, nenhum aplicativo de terceiros pode utilizá-lo.
Então, como é que o Google fez? Será que conseguiu burlar o sistema sem a Apple se dar conta ou será que teve algum acesso especial para as APIs privadas do SDK?
Hoje ninguém tem uma resposta segura para esta pergunta. Mas Erica Sadun (que agora escreve para o Ars Technica) chegou mesmo a fazer uns testes com o código compilado do aplicativo.
Seja como for, o recurso apresentado pelo Google é um diferencial enorme para o iPhone, nenhum outro telefone tem isso atualmente (nem mesmo o Android). Não me surpreenderia se a Apple tivesse liberado excepcionalmente ao gigante das buscas algumas funções privadas do iPhone.