Inteligência Artificial - Em mais produtos e mais acessível aos desenvolvedores

Comecei a desenvolver software em 1994, naquela época qualquer coisa era realmente complexa quando pensávamos em criar software ou integrar hardwares de controle ou automação, a época Internet das Coisas era algo sequer pensado, a própria Internet estava nascendo.

Nestes mais de 20 anos, vi algumas tecnologias nascerem, se transformarem e algumas morrerem, mas uma coisa é uma constante: A Evolução das ferramentas para se criar tecnologia.

Em meu trabalho de graduação da faculdade escrevi junto com um colega o controle por Internet de um braço robótico por meio de uma controladora serial e com interface usando Macromedia Flash. Fomos vistos como inovadores e em 2006 isto ainda era algo novo, não com tanta relevância como alguns viam, mas sim era algo diferencial e envolvia muito trabalho.

Hoje o senso comum é outro, a principal resposta a perguntas é um direcionamento para o Google a fim de buscar uma biblioteca pronta ou um fragmento de código que execute a ação. Isto não é ruim, isto é excelente, pois a cada dia temos mais e mais produtos e o avanço tecnológico andando a passos largos. Com isso temos novos inventores, novas empresas, crescimento da economia e o principal deste ciclo, temos uma demanda crescente por novos serviços de base, novas plataformas de hardware e a cada novo produto este ciclo se oxigena, se energiza e se torna mais rápido.

A bola da vez é a inteligência, queremos produtos que entendam voz, que reconheçam as faces, que resolvam problemas cotidianos e tomem decisões em tempo real! Não queremos mais esperar nada, e nessa corrida, não queremos tampouco perder tempo com o desenvolvimento e para isso fabricantes estão soltando novos produtos a cada dia.

Quando pensamos em todas estas demandas, automaticamente eu penso nos serviços cognitivos existentes nas nuvens. Desde uma detecção simples de padrões até uma resposta baseada em uma série de documentos, temos tudo em milissegundos. Consultar milhares de faces e reconhecer uma pessoa pode custar centavos hoje e com isso crescemos usando os tais serviços, tudo ao alcance de uma chamada via internet.

A grande descoberta disso tudo é que podemos! Temos o poder na mão, mas as vezes o tiro pode sair pela culatra. Cenários com Internet não confiável, volumes muito altos de consultas e aonde a necessidade de respostas em tempo real se fazem necessárias, pedem algo que esteja local e não na nuvem.

Entramos na era do processamento “on the edge” e ai voltamos ao problema de ter que escrever códigos e também de ter a necessidade de um hardware mais potente para responder a contento quando se faz necessário o “jogo sujo” que acontece por trás das cenas, das tais bibliotecas que são de fácil consumo.

Para esta problemática, existem agora os microcontroladores que vem com aceleração de hardware e códigos extremamente otimizados para rodar na ponta. Saíram na frente a Microsoft e a Google.

Em maio deste ano, em conjunto com a Qualcomm, a Microsoft dentro de seu evento para desenvolvedores anunciou o Vision Developer Kit que vai embarcar um sistema operacional, com um hardware de ponta e pronto para integrar aos serviços de Inteligência Artificial do Azure, sua plataforma de nuvem. Neste mesmo evento foi anunciado uma união com a DJI para colocar o seu cliente de IoT, o IoT Edge, dentro de alguns modelos dos drones para permitir em tempo real a análise de imagens e tomada de decisão em pleno voo. Enquanto este não chega ao mercado, atualmente podemos pegar as imagens dos drones por meio de streaming e aplicar inteligência dentro do Windows usando modelos treinados na nuvem, localmente e sem acesso a internet.

O IoT Edge permite que se faça isso atualmente com outros hardwares, mas como falei antes, a corrida é por atender as aplicações específicas com ferramental que cada vez mais traga velocidade ao desenvolvimento e confiança nas aplicações. Não preciso nem dizer que isto reduz também significativamente o custo do desenvolvimento.

O Google por sua vez, está trazendo ao mercado o Edge TPU (Tensor Processing Unit), um chip otimizado para sua biblioteca de Machine Learning, o TensorFlow. O Anuncio foi feito em julho de 2018 e virá no formato de um SOM (System on a Module), também seguindo a mesma forma que a Microsoft se utiliza no seu IoT Edge a Google aposta no processo de processamento e de inferência em momentos diferentes, com isso podemos gerar o modelo na nuvem e mandar para a ponta somente o necessário para a execução. Vamos criar mais dispositivos inteligentes, com mais facilidade e menos custos.

texto: Jorge Maia

Compartilhe esse Post