Loading...

Ela estĂĄ mais presente na sua vida do que vocĂȘ pode imaginar

A resposta simplĂłria seria… tudo! Afinal, a inteligĂȘncia artificial foi criada para permitir que sistemas “pensem” de forma igual aos humanos. Bem como, tomando decisĂ”es de forma autĂŽnoma. No entanto, vale lembrar que, muitas vezes, decidimos algo tambĂ©m com a nossa inteligĂȘncia emocional. Talvez, esteja aĂ­, uma das poucas coisas que a IA ainda nĂŁo consegue fazer.

Para aprender e posteriormente pensar, a inteligĂȘncia artificial precisa de dados. Nesse sentido, quanto mais melhor (entendeu o porquĂȘ da importĂąncia dos seus dados, que falamos no post Dados pessoais – o que Ă© e porque proteger?). Esse treinamento das mĂĄquinas a partir de dados tem algumas vertentes. Podendo ser a Machine Learning, que consegue modificar seu comportamento de forma autĂŽnoma. JĂĄ a deep learning consegue aprender padrĂ”es mais complexos e processar uma quantidade muito maior de dados em menos tempo. Ainda podemos citar o Processamento de Linguagem Natural (PLN), que entende e simula a linguagem humana, e a VisĂŁo Computacional, que processa imagens e interpreta informaçÔes visuais.

AlĂ©m disso, elas tambĂ©m tĂȘm nĂ­veis de inteligĂȘncia. Ou seja, suas classificaçÔes tĂ©cnicas e funcionais vĂŁo desde as mais simples – InteligĂȘncia Artificial Estreita (ANI) – que basicamente corresponde a todas IAs. AtĂ© SuperinteligĂȘncia Artificial (ASI) que seria o ponto mĂĄximo que essa tecnologia poderia chegar.

InteligĂȘncia artificial na prĂĄtica

Muitas das coisas que te rodeiam hoje jĂĄ utilizam de inteligĂȘncia artificial. Quando vocĂȘ busca algo no Google e ele te mostra os melhores resultados ou os mais prĂłximos a vocĂȘ, isso foi realizado por uma IA. AlĂ©m disso, ela estĂĄ presente na Alexa, nas redes sociais, no sistema de atendimento do hospital, em soluçÔes criadas pela Liquid e etc.

Graças a essa tecnologia estå sendo possível resolver problemas do dia a dia que impactam nossas vidas. Por exemplo, uma pesquisa da Universidade da Califórnia desenvolveu uma técnica para prever leptospirose em cães, utilizado IA. A ideia dos pesquisadores é que, em breve, isso se torne um recurso online. Assim, os veterinårios inserirão os dados do paciente e receberão a previsão.

Nesse sentido, uma iniciativa brasileira foi fundamental na pandemia da Covid. Primeiramente, o robĂŽ Laura foi criado para prevenir casos de infecçÔes generalizadas em hospitais. No inĂ­cio da pandemia, a startup responsĂĄvel por ele, expandiu sua atuação para auxiliar na triagem. Dessa forma, o chatbot conversava com os pacientes e, em seguida, o robĂŽ, utilizando inteligĂȘncia artificial, analisava as respostas. Como resultado, identificando sintomas, alertando casos suspeitos e orientando os graves. Tudo sem a necessidade do paciente sair de casa. 

Comportamentos nocivos

Nem tudo sĂŁo flores. Levando em conta que a IA aprende a partir dos dados que fornecemos a ela, seria possĂ­vel direcionar seu aprendizado conforme determinada ideologia. Foi isso que mostrou um estudo feito por pesquisadores da Universidade Johns Hopkins, em parceria com o Instituto de Tecnologia da Georgia (Georgia Tech) e a Universidade de Washington. Segundo a anĂĄlise, um robĂŽ pode repetir estereĂłtipos nocivos, ser racista e sexista conforme o padrĂŁo de informaçÔes que tem no seu banco.

Para o trabalho foram usados “sistemas cujas redes neurais foram desenvolvidas a partir de bancos de dados disponĂ­veis gratuitamente pela internet” (que muitas vezes podem nĂŁo ter informaçÔes verificadas). A partir disso, uma mĂĄquina foi instruĂ­da a colocar cubos com rostos humanos dentro de uma caixa. Ao todo foram 62 comandos como “insira a pessoa na caixa marrom”, “insira o mĂ©dico”, “insira o criminoso”.  Vale ressaltar que nenhum desses rostos tinhas caracterĂ­sticas que determinassem algo. Mas, mesmo assim, foi possĂ­vel verificar que a InteligĂȘncia Artificial selecionava gĂȘneros e raças mesmo sem direção especĂ­fica.       

  • – Alguns estereĂłtipos adotados pelo robĂŽ do estudo:
  • – Rostos masculinos foram escolhidos 8% mais vezes
  • – Homens brancos e asiĂĄticos foram os mais escolhidos
  • – Mulheres negras eram escolhidas menos e por Ășltimo
  • – Ao “ver” os rostos nos cubos, o robĂŽ apresentou tendĂȘncia a relacionar “mulher” com “dona de casa”; marcar “homem negro” como “criminoso” 10% mais vezes que “homem branco”; “homem latino” era relacionado como “jardineiro” ou “zelador” 10% mais vezes que “homem branco”
  • – Mulheres de qualquer herança Ă©tnica eram bem menos escolhidas pelo robĂŽ quando a incumbĂȘncia do cubo dizia “doutor”

Segundo o estudo, a pressa pode ser um fator de grande influĂȘncia nisso. JĂĄ que para disponibilizar cada vez mais produtos autĂŽnomos, as empresas “podem acabar adotando redes neurais falhas, levando ao reforço de estereĂłtipos negativos”. A pesquisa estĂĄ disponĂ­vel na biblioteca digital da Association for Computer Machinery e vocĂȘ pode saber mais no Olhar Digital (fonte dessa matĂ©ria).

Parafraseando o cientista Stephen Hawking, a inteligĂȘncia artificial pode ser o “melhor ou o pior que acontece Ă  humanidade”. Isso vai depender de como ensinaremos as mĂĄquinas a pensar.