DC-UFRPE/Licenciatura Plena em Computação/Inteligência/Inteligência Artificial

Fonte: Wikiversidade

O que é IA?[editar | editar código-fonte]

É a teoria e o desenvolvimento de programas de computador que podem executar tarefas e resolver problemas que geralmente requerem inteligência humana. Coisas como percepção visual, reconhecimento de fala, tomada de decisão e tradução são capacidades que normalmente dependem da inteligência humana. Agora, os programas de computador podem se envolver automaticamente aprendizado profundo absorver grandes quantidades de dados e resolver tarefas de maneira a imitar a inteligência humana.

John McCarthy é amplamente creditado como o inventor da inteligência artificial. Ele desenvolveu alguns dos primeiros algoritmos para aprendizado de computador em 1956, que lançaram as bases para pesquisas sobre lógica e representação simbólicas. Ao longo de sua carreira de cinco décadas como professor de Ciência da Computação na Universidade de Stanford, McCarthy continuou a expandir suas idéias e explorar como os computadores poderiam ser programados para pensar como seres humanos. Hoje, sua influência ainda é sentida através de robótica e avanços no processamento de linguagem natural.

História de IA[editar | editar código-fonte]

As origens da inteligência artificial podem ser datadas em meados do século XX, quando os cientistas da computação começaram a criar algoritmos e softwares que poderiam realizar tarefas que normalmente precisam de inteligência humana, como solução de problemas, reconhecimento de padrões e julgamento. Um dos primeiros pioneiros da IA foi Alan Turing, que propôs o conceito de uma máquina que poderia simular qualquer tarefa de inteligência humana, que agora é conhecida como Teste de Turing.

A conferência de Dartmouth de 1956 reuniu acadêmicos de várias profissões para examinar a perspectiva de construir robôs que possam “pensar.”A conferência introduziu oficialmente o campo da inteligência artificial. Durante esse período, sistemas baseados em regras e pensamento simbólico foram os principais tópicos do estudo de IA.

Nas décadas de 1960 e 1970, o foco da pesquisa em IA mudou para o desenvolvimento de sistemas especializados projetados para imitar as decisões tomadas por especialistas humanos em áreas específicas. Esses métodos eram frequentemente empregados em indústrias como engenharia, finanças e medicina.

No entanto, quando as desvantagens dos sistemas baseados em regras se tornaram evidentes na década de 1980, a pesquisa em IA começou a ocorrer concentre-se no aprendizado de máquina, que é um ramo da disciplina que emprega métodos estatísticos para permitir que os computadores aprendam com os dados. Como resultado, redes neurais foram criadas e modeladas após a estrutura e operação do cérebro humano.

A pesquisa em IA fez progressos substanciais nos anos 90 em robótica, visão computacional e processamento de linguagem natural No início dos anos 2000, os avanços no reconhecimento de fala, reconhecimento de imagem e processamento de linguagem natural foram possibilitados pelo advento do aprendizado profundo - um ramo do aprendizado de máquina que usa redes neurais profundas.

Assistentes virtuais, carros autônomos, diagnósticos médicos e análises financeiras são apenas alguns dos usos modernos da IA. A inteligência artificial está se desenvolvendo rapidamente, com pesquisadores analisando novas idéias, como o aprendizado de reforço computação quântica e computação neuromórfica.

Outra tendência importante na IA moderna é a mudança para interações mais humanas, com assistentes de voz como Siri e Alexa liderando o caminho. O processamento de linguagem natural também fez progressos significativos, permitindo que as máquinas entendam e respondam à fala humana com maior precisão.

Usos e Limitações[editar | editar código-fonte]

A Inteligência Artificial tem sido revolucionária para a humanidade, permitindo que as organizações liberem maior eficiência, reduzam custos e fortaleçam os negócios de várias maneiras. Mas não é impecável.

As três maiores limitações da IA são: a IA pode ser tão inteligente ou eficaz quanto a qualidade dos dados que você fornece, viés algorítmico e sua natureza de "black box".

  • Falta de acurácia na análise de dados :

A única maneira de aprender os programas de IA é através das informações que fornecemos. Mas se os dados fornecidos ao programa estiverem incompletos ou não confiáveis, seus resultados poderão ser imprecisos ou distorcidos. Portanto, a IA pode ser tão inteligente ou eficaz quanto a qualidade dos dados que você fornece.

Por exemplo, a Amazon começou a usar um programa de IA para revisar novos candidatos a emprego em 2014. Foi treinado usando os currículos apresentados nos 10 anos anteriores, onde a maioria era do sexo masculino. O sistema concluiu erroneamente que ser homem era a qualidade preferida para novas contratações e começou a filtrar candidatas.

  • Viés algorítmico:

Algoritmos são um conjunto de instruções, podem ou não ser escritas por um programador humano, que uma máquina segue para concluir uma determinada tarefa. Mas se os próprios algoritmos forem defeituosos ou tendenciosos, eles apenas mostrarão resultados injustos e não podemos confiar neles. Os preconceitos emergem principalmente da maneira parcial como os programadores projetaram o algoritmo, favorecendo alguns critérios desejados ou de autoatendimento. O viés algorítmico está comumente presente em grandes plataformas, como sites de mídia social e mecanismos de pesquisa.

Por exemplo, um algoritmo do Facebook configurou um algoritmo para remover discursos de ódio em 2017. Mas mais tarde foi relatado que o algoritmo removeu discursos de ódio sobre homens brancos, mas permitiu discursos de ódio contra crianças negras. Como o algoritmo foi projetado para filtrar apenas categorias amplas, como 'brancos', 'negros', 'muçulmanos', 'terroristas' e 'nazistas' e subconjuntos não específicos de categorias, o algoritmo permitiu esses discursos de ódio.

  • Natureza "Black Box" da AI :

A IA é conhecida por sua capacidade de aprender com grandes volumes de dados, descobrir os padrões subjacentes e tomar decisões baseadas em dados. Mas, embora o sistema produza rapidamente resultados precisos todas as vezes, há uma grande desvantagem - o sistema de IA não pode expressar ou explicar como chegou a essa conclusão. Portanto, isso levanta automaticamente a questão: como podemos confiar no sistema em questões muito sensíveis, como segurança nacional, governança ou empreendimentos comerciais de alto risco?

Referências[editar | editar código-fonte]