Inteligência Artificial do Google Promete Diagnósticos Médicos Através de Sons Respiratórios

Pesquisadores antecipam que a nova tecnologia poderá identificar enfermidades como Covid-19 e tuberculose por meio da análise de sons como a tosse.

Um grupo de especialistas do Google criou um mecanismo de Inteligência Artificial (IA) capaz de auxiliar na identificação e acompanhamento de patologias por meio da análise de sons respiratórios, como a tosse. Este sistema foi aprimorado com uma vasta quantidade de gravações de ruídos humanos, e há expectativas de que, eventualmente, ele possa ser aplicado no diagnóstico de afecções como Covid-19 e tuberculose.

O recente mecanismo do Google, denominado Representações Acústicas de Saúde (HeAR), foi aperfeiçoado utilizando um extenso banco de dados e é versátil para realizar variadas funções. A inovação foi apresentada neste mês em um documento que ainda passará por avaliação de especialistas.

Atualmente, não se pode prever se ou quando o HeAR se transformará em um produto de mercado. No momento, a intenção é tornar a IA disponível para cientistas interessados em empregar o modelo em estudos próprios. "Nossa meta, como integrantes da Pesquisa Google, é fomentar o desenvolvimento neste setor emergente", afirma Sujay Kakarmath, diretor de produtos do Google em Nova York e participante do projeto.

Funcionamento do Mecanismo

As ferramentas de IA, como o HeAR, são desenvolvidas com gravações sonoras, tais como tosses, que são combinadas a dados de saúde do indivíduo que produziu esses sons. Essas gravações podem ser marcadas para mostrar se a pessoa tinha condições como bronquite, tuberculose ou Covid-19.

Dessa forma, o mecanismo começa a correlacionar as propriedades desses sons com as informações disponíveis, em um método de treino conhecido como "aprendizado supervisionado".

Contudo, o que distingue o instrumento criado pelos especialistas do Google é que ele foi aprimorado com uma técnica chamada "aprendizado autodirigido", que utiliza dados não marcados. Para tal, os cientistas utilizaram mais de 300 milhões de trechos sonoros breves de tosses, respirações, pigarros e outros ruídos de vídeos do YouTube.

Cada som foi transformado em uma representação visual chamada espectrograma. Posteriormente, partes desses espectrogramas foram ocultadas para instruir a IA a antecipar as seções ausentes nos sons.

Esse procedimento é análogo ao método pelo qual o ChatGPT foi instruído a antecipar palavras subsequentes em um texto, após ser treinado com exemplos de escrita humana. Com isso, os cientistas elaboraram um "modelo primário", que pode ser adaptado para uma série de tarefas.
Devido ao HeAR ter sido aprimorado com uma ampla variedade de ruídos humanos, os cientistas só precisaram de um número reduzido de dados para ajustá-lo, marcando as doenças e suas características. Assim, a IA foi configurada para identificar Covid-19, tuberculose e se o indivíduo é fumante, entre outros.