Loading...

Ela está mais presente na sua vida do que você pode imaginar

A resposta simplória seria… tudo! Afinal, a inteligência artificial foi criada para permitir que sistemas “pensem” de forma igual aos humanos. Bem como, tomando decisões de forma autônoma. No entanto, vale lembrar que, muitas vezes, decidimos algo também com a nossa inteligência emocional. Talvez, esteja aí, uma das poucas coisas que a IA ainda não consegue fazer.

Para aprender e posteriormente pensar, a inteligência artificial precisa de dados. Nesse sentido, quanto mais melhor (entendeu o porquê da importância dos seus dados, que falamos no post Dados pessoais – o que é e porque proteger?). Esse treinamento das máquinas a partir de dados tem algumas vertentes. Podendo ser a Machine Learning, que consegue modificar seu comportamento de forma autônoma. Já a deep learning consegue aprender padrões mais complexos e processar uma quantidade muito maior de dados em menos tempo. Ainda podemos citar o Processamento de Linguagem Natural (PLN), que entende e simula a linguagem humana, e a Visão Computacional, que processa imagens e interpreta informações visuais.

Além disso, elas também têm níveis de inteligência. Ou seja, suas classificações técnicas e funcionais vão desde as mais simples – Inteligência Artificial Estreita (ANI) – que basicamente corresponde a todas IAs. Até Superinteligência Artificial (ASI) que seria o ponto máximo que essa tecnologia poderia chegar.

Inteligência artificial na prática

Muitas das coisas que te rodeiam hoje já utilizam de inteligência artificial. Quando você busca algo no Google e ele te mostra os melhores resultados ou os mais próximos a você, isso foi realizado por uma IA. Além disso, ela está presente na Alexa, nas redes sociais, no sistema de atendimento do hospital, em soluções criadas pela Liquid e etc.

Graças a essa tecnologia está sendo possível resolver problemas do dia a dia que impactam nossas vidas. Por exemplo, uma pesquisa da Universidade da Califórnia desenvolveu uma técnica para prever leptospirose em cães, utilizado IA. A ideia dos pesquisadores é que, em breve, isso se torne um recurso online. Assim, os veterinários inserirão os dados do paciente e receberão a previsão.

Nesse sentido, uma iniciativa brasileira foi fundamental na pandemia da Covid. Primeiramente, o robô Laura foi criado para prevenir casos de infecções generalizadas em hospitais. No início da pandemia, a startup responsável por ele, expandiu sua atuação para auxiliar na triagem. Dessa forma, o chatbot conversava com os pacientes e, em seguida, o robô, utilizando inteligência artificial, analisava as respostas. Como resultado, identificando sintomas, alertando casos suspeitos e orientando os graves. Tudo sem a necessidade do paciente sair de casa. 

Comportamentos nocivos

Nem tudo são flores. Levando em conta que a IA aprende a partir dos dados que fornecemos a ela, seria possível direcionar seu aprendizado conforme determinada ideologia. Foi isso que mostrou um estudo feito por pesquisadores da Universidade Johns Hopkins, em parceria com o Instituto de Tecnologia da Georgia (Georgia Tech) e a Universidade de Washington. Segundo a análise, um robô pode repetir estereótipos nocivos, ser racista e sexista conforme o padrão de informações que tem no seu banco.

Para o trabalho foram usados “sistemas cujas redes neurais foram desenvolvidas a partir de bancos de dados disponíveis gratuitamente pela internet” (que muitas vezes podem não ter informações verificadas). A partir disso, uma máquina foi instruída a colocar cubos com rostos humanos dentro de uma caixa. Ao todo foram 62 comandos como “insira a pessoa na caixa marrom”, “insira o médico”, “insira o criminoso”.  Vale ressaltar que nenhum desses rostos tinhas características que determinassem algo. Mas, mesmo assim, foi possível verificar que a Inteligência Artificial selecionava gêneros e raças mesmo sem direção específica.       

  • – Alguns estereótipos adotados pelo robô do estudo:
  • – Rostos masculinos foram escolhidos 8% mais vezes
  • – Homens brancos e asiáticos foram os mais escolhidos
  • – Mulheres negras eram escolhidas menos e por último
  • – Ao “ver” os rostos nos cubos, o robô apresentou tendência a relacionar “mulher” com “dona de casa”; marcar “homem negro” como “criminoso” 10% mais vezes que “homem branco”; “homem latino” era relacionado como “jardineiro” ou “zelador” 10% mais vezes que “homem branco”
  • – Mulheres de qualquer herança étnica eram bem menos escolhidas pelo robô quando a incumbência do cubo dizia “doutor”

Segundo o estudo, a pressa pode ser um fator de grande influência nisso. Já que para disponibilizar cada vez mais produtos autônomos, as empresas “podem acabar adotando redes neurais falhas, levando ao reforço de estereótipos negativos”. A pesquisa está disponível na biblioteca digital da Association for Computer Machinery e você pode saber mais no Olhar Digital (fonte dessa matéria).

Parafraseando o cientista Stephen Hawking, a inteligência artificial pode ser o “melhor ou o pior que acontece à humanidade”. Isso vai depender de como ensinaremos as máquinas a pensar.