Expert Systems

Fonte: Wikiversidade

Esta página possui o objetivo de reunir todo o conteúdo produzido e necessário para a realização do trabalho final da disciplina Sistemas de Informação para Engenharia de Produção, ministrada pela professora Cláudia Melo, na Universidade de Brasília (UnB). O intuito é realizar um trabalho a respeito do tema Expert Systems, através de métodos e procedimentos trabalhados em sala de aula.

A equipe é composta por: Ana Luísa Nóbrega, Eric Vianna, Felipe Diniz, Lucas Moreira Gomes e Victor Hugo Moreira.

Introdução[editar | editar código-fonte]

Sobre o tema[editar | editar código-fonte]

O conhecimento tornou-se, hoje mais do que no passado, um dos principais fatores de superação de desigualdades, de agregação de valor, criação de emprego qualificado e de propagação do bem-estar.[1] A informação é um bem de influência e importância enorme não somente para a tomada de decisões, mas para trazer fenômenos cada vez mais inovadores e revolucionários na construção do conhecimento. Além disso, as desigualdades de riqueza, poder e oportunidades na sociedade são, por consequência, refletidos como desigualdades no acesso à informação.[2] O desenvolvimento e consolidação da tecnologia da informação e comunicação e a manipulação da informação trouxeram transformações no modo de se fazer ciência. Isso é refletido nas pesquisas de ponta atualmente, que exigem expressivas capacidades de processamento e de rede para a manipulação de dados. Nesse ínterim, o presente trabalho a respeito de Sistemas Especialistas tende fornecer literatura que possibilite o acesso à informação e conhecimento.

   A inteligência humana não possui um conceito ou uma definição uniformemente aceita entre pesquisadores e filósofos, mas sabe-se que a capacidade do ser humano para lógica, memorização, compreensão, aprendizado, resolução de problemas, entre outros é imensurável e dificilmente traduzida para mecanismos ou softwares. Nesse contexto, a inteligência humana sempre foi um fenômeno que despertou curiosidade no mundo da ciência e essa tentativa de compreensão e modelagem datam desde os tempos de Platão com suas especulações sobre inteligência e teoria do conhecimento. 

   Com o advento da computação, foi possível passar essa especulação à prática pois as máquinas poderiam incorporar o comportamento inteligente do ser humano.[3] A evolução da inteligência artificial segue essa lógica inaugurada por McCarthy e Hayes, onde um programa de computador ‘inteligente’ deve ter uma representação geral do mundo a partir da qual suas entradas podem ser interpretadas.[4] A grande questão é como esse modelo de ‘inteligência’ pode ser representado e bem especificado e como uma máquina pode ter capacidades de processamento, manipulação, inferências de dados e outras habilidades semelhantes à do ser humano. 

   A interoperabilidade dos sistemas de informação pode ser viabilizada através das ontologias por meio da integração de conjuntos de dados diversos e heterogêneos. A ontologia tem origem na filosofia, o ramo da metafísica que trata da existência e para ciência da computação, o termo trata de modelos de dados que representam um conjunto de conceitos dentro de um domínio e os relacionamentos entre estes.[5] Por meio deste e outros mecanismos como Rule-based systems, Knowlegde-based systems, neural networks, modelo fuzzy, orientação ao objeto e case-bases systems, é possível a criação, modelagem e desenvolvimento de Sistemas Especialistas. [6] Neste contexto, o objetivo do estudo da inteligência artificial simbólica estava voltado para ‘burlar’ o comportamento de um especialista, em um domínio de conhecimento específico na resolução de problemas.

Objetivo e estrutura[editar | editar código-fonte]

O presente trabalho tem como objetivo conduzir uma pesquisa teórica e aplicada, com resolução de problema, a respeito de Sistemas Especialistas além de acrescentar literatura que possibilite o acesso a esse estudo e área de conhecimento. Ademais, este trabalho tem como objetivos específicos conceituar o que são Sistemas Especialistas, explicar seu funcionamento, produzir um breve histórico com exemplos clássicos sobre esse tipo de sistema, mostrar a aplicação atual e tendências futuras e descrever, com referências sólidas como os Sistemas Especialistas podem ser usados de maneira inovadora em um restaurante, uma empresa aérea, um banco de varejo e em um órgão público. 

   Nesse ínterim, o trabalho será realizado pelos estudantes de Sistemas de Informação para Engenharia de Produção como trabalho final da disciplina, orientado e designado pela Professora Claudia de Oliveira Melo e monitor. O projeto é necessário não somente para a disciplina ministrada pela professora no contexto do andamento e conclusão do curso de Engenharia de Produção da Universidade de Brasilia (UnB), mas também para o desenvolvimento dos alunos no contexto da aplicação de gerenciamento de projetos, métodos ágeis e design thinking. 

   A estrutura do trabalho foi desenvolvida baseado nos objetivos específicos e separada nos seguintes tópicos: 

1 - Introdução

  • Sobre o tema - Conceitos e antecedentes que englobam o tema Sistemas Especialistas
  • Objetivo e estrutura - Objetivo geral e específicos, justificativa e estrutura do trabalho.
  • Conceitos iniciais - Referencial bibliográfico inicial à respeito do tema.

2 - Metodologia

  • Gerenciamento - Descrição de como foi feito o gerenciamento do trabalho 
  • Comunicação - Descrição de como foi realizada a comunicação entre a equipe
  • Gestão de documentos - Descrição de como foi realizada a gestão dos documentos e arquivos utilizados ao longo do trabalho
  • Backlog inicial - Estrutura dos sprints e atividades

3 - Desenvolvimento

  • Conceito - Conceituar o que é esse tipo de sistema, explicar como funcionam.
  • Histórico - Visão rápida de histórico, quando esses sistemas começaram a existir e exemplos clássicos.
  • Aplicação atual - Aplicação atual desse tipo de sistema (foco em casos interessantes mais recentes).
  • Tendências futuras - Tendências futuras (o que vem se desenvolvendo de ponta na área).
  • Aplicação prática - Descrever, com referências sólidas (além de fotos e links de casos reais), como esse tipo de sistema pode ser usado de maneira inovadora em um restaurante, em uma empresa aérea, em um banco de varejo e em um órgão público.
  • Entregas - Especificar quais as entregas ao longo do trabalho 

4 - Conclusão 

  • Considerações finais - Considerações finais, conclusões a respeito do trabalho e aprendizados.

5 - Referencial Bibliográfico

Conceitos iniciais[editar | editar código-fonte]

Inteligência artificial[editar | editar código-fonte]

O surgimento da computação, o trabalho de Turing com a formalização do algoritmo e da computação, o trabalho de McCarthy como um dos pioneiros da inteligência artificial e Minsky, fizeram surgir o termo Inteligência Artificial (IA). Por meio desta, a inteligência similar à humana é exibida por mecanismos ou softwares com a utilização de máquinas que aprendem e inferem, facilitando e ajudando a vida do ser humano.

   A inteligência artificial é dividida em Simbólica onde o conhecimento é explícito e a ciência é cognitiva (Ex: estados, lógica, regras e casos); Conexionista onde o conhecimento é implícito e na neuro-ciência (Ex: redes neuronais) e Evolutiva onde tem representação de soluções candidatas e a ciência é biológica (Ex: Algoritmos genéticos). A evolução da IA simbólica é dividida em três fases : clássica, romântica e moderna.[7]

   Até o final da fase clássica (1970) eram utilizados métodos gerais para solucionar problemas e lógica com o  objetivo de simular a inteligência humana. A fase romântica, que durou até 1980 tinha como objetivo simular a inteligência humana com situações predeterminadas através de formalismos de representação do conhecimento específicos. De 1980 para 1990 ocorreu a fase moderna do IA que foi marcada pelo desenvolvimento de Sistemas Especialistas onde ocorreu a intensa busca pela representação do comportamento de um especialista na resolução de problemas de um domínio específico.[4]

Rule based systems[editar | editar código-fonte]

Os sistemas baseados em regras são uma maneira de armazenar e manipular o conhecimento para interpretar as informações de maneira útil. Um Sistema Especialista baseado em regras contém informações obtidas de um humano especialista em determinado assunto e representa essa informação com regras (SE-ENTÃO). Essas regras são executadas para manipulação de dados e inferências que levam à uma determinada conclusão. As inferências obtidas são basicamente um programa de computador que fornece uma metodologia para raciocínio sobre informações na base de regras ou na base de conhecimento para a formulação de conclusões.[6]

Knowledge based systems[editar | editar código-fonte]

   Os sistemas baseados no conhecimento (KBS) são tentativas de compreender e representar o conhecimento humano em sistemas informatizados.[8] Esse sistema possui quatro componentes principais: base de conhecimento, mecanismo de inferência, ferramentas de engenharia de conhecimento e uma interface.[9][6] A base de conhecimento representa fatos sobre o mundo muitas vezes na forma de ontologias e os mecanismos de inferência utilizam os sistemas baseados em regras.

Neural networks[editar | editar código-fonte]

As redes neurais artificiais (ANN) são modelos computacionais baseado na coleção de unidades conectadas chamadas ‘neurônios artificiais’ emulando uma rede neural biológica. Essa interconexão entre neurônios nas diferentes camadas de cada sistema é usado para implementar simulações de softwares para processos paralelos que envolvem processamento interligados na arquitetura de uma rede. Dessa maneira o neurônio artificial recebe entradas comparáveis aos impulsos eletroquímicos recebidos pelos neurônios biológicos e as saídas do neurônio artificial podem ser alteradas de maneira semelhante à mudanças físicas que acontecem nas sinapses neurais humanas.[6]

Fuzzy ES[editar | editar código-fonte]

Os sistemas especialistas fuzzy são baseados na lógica difusa, onde existe a verdade parcial: o valor verdade pode compreender entre completamente verdadeiro e completamente falso, ou seja, trata da incerteza. Essa técnica, que utiliza a teoria matemática de conjuntos difusos, tenta simular o processo de raciocínio humano normal. Assim, o computador se comporta com menos precisão e lógica do que os computadores convencionais. Desse maneira, a lógica é mais aproximada do pensamento humano, uma vez que a tomada de decisões nem sempre é verdadeira ou falsa.[6]

Ontologia[editar | editar código-fonte]

O termo ontologia tem origem na filosofia, que é o ramo da metafísica que estuda a existência. Porém, na ciência da computação ontologia é um modelo de dados que representa um conjunto de conceitos dentro de um domínio de relacionamentos entre estes que é utilizada para realizar inferências sobre os objetos do domínio. Esses domínios são representados e um código de programa de computador é gerado naquela ontologia para a aquisição e reutilização do conhecimento e aprendizagem heurística. Uma das mais utilizadas ontologias da atualidade é a Basic Formal Ontology (BFO) projetada para uso em suporte de recuperação de informações, análise e integração de domínios científicos.

Web semântica[editar | editar código-fonte]

A web semântica é uma extensão do World Wide Web que interliga significado de palavras e conceitos para atribuir um sentido aos conteúdos publicados na internet de maneira que possa ser interpretada pelos seres humanos e pelos computadores. Assim, existe uma relação de interatividade entre o homem e o computador onde um dependo do outro para conclusões de tarefas e tem como objetivo principal treinar máquina para que se comportem como pessoas.

Metodologia[editar | editar código-fonte]

Gerenciamento[editar | editar código-fonte]

Metodologia ágil[editar | editar código-fonte]

O gerenciamento do projeto está sendo realizado por meio de metodologias ágeis e com isso, o grupo está aplicando alguns princípios fundamentais dos métodos ágeis:

Princípio da especificação mínima - Todos os integrantes da equipe tem uma visão macro e micro dos requisitos, backlogs, sprints e andamento do projeto. Por meio da utilização da ferramenta Trello, a equipe consegue gerenciar as entregas de cada backlog além de visualizar suas prioridades, gerenciar o andamento do time, verificar as atividades que são críticas e fundamentais, especificar o que é essencial e entender o contexto no qual cada atividade está inserida.

Princípio dos times autônomos - Cada membro é responsável pelo andamento do time em geral. Além disso, todos tem autonomia e autoridade para a tomada de decisões e mudanças nos backlogs, sprints e no próprio projeto e todos os membros se auto-monitoram e monitoram os outros integrantes. Isso tudo é possível por meio das ferramentas utilizadas de comunicação e gestão de documentos, das reuniões e da responsabilidade de cada integrante do time.

Princípio da redundância - Cada integrante do time é responsável por mais de uma função, o que torna o projeto mais flexível e adaptável. Por meio da wikiversidade, todos os integrantes conseguem visualizar o andamento de cada membro e do projeto em geral, podendo tomar decisões nas funções e atividades de outros membros. Com isso, existe uma alta flexibilidade e compartilhamento de conhecimento.

Princípio do feedback e aprendizado - Através das reuniões semanais e utilização das ferramentas de comunicação e gestão de documentos, o time realiza feedbacks constantemente a respeito do desenvolvimento pessoal de cada um e desenvolvimento da equipe em geral. Com isso, ocorre um enorme aprendizado e rápida solução de problemas. Por exemplo, durante o projeto foi visto que um membro estava com dificuldade na realização de sua atividade, então, um outro membro que já tinha terminado sua parte ajudou-o na realização, o que trouxe feedback e aprendizado para ambos.

Com a aplicação desses princípios no projeto, ocorreu uma enorme transparência, uma vez que todos tem conhecimento dos requisitos, processos e andamento do projeto; Inspeção pois o tempo todo é inspecionado o que está sendo feito no projeto, nas reuniões semanais, no sprint review e com a utilização das ferramentas; Adaptação pois a todo momento o projeto esta sendo adaptado de acordo com as mudanças, feedback e aprendizado; Organização, que foi possível através da reunião de planejamento dos sprints e construção dos backlogs e controle, por meio das reuniões semanais e utilização das ferramentas de comunicação e gestão de documentos.

Comunicação[editar | editar código-fonte]

A comunicação majoritária entre o grupo é feita por meio do aplicativo de mensagens WhatsApp. Foi criado um grupo no com todos os membros no qual são repassados dados, documentos e tarefas. Também é feito o alinhamento da equipe, para que todos estejam informados sobre o que cada membro está desenvolvendo.

A fim de conferir agilidade ao projeto, com o pensamento de aplicar as metodologias ágeis, foi implementado o Trello como ferramenta de gestão de atividades. Dessa forma, todas as tarefas que estão sendo executadas pela equipe podem ser visualizadas para que se tenha uma noção macro do projeto. Abaixo uma imagem ilustrando a utilização da ferramenta ágil.

Gestão de documentos[editar | editar código-fonte]

Seguindo a ideia de desenvolvimento ágil de projetos, a equipe tem como foco a produção de documentos com o maior valor possível, no menor prazo possível e com o menor registro de atividades irrelevantes possíveis. Para tanto, os documentos são gerenciados de maneira exclusivamente online, e em plataformas colaborativas com a intensão de dinamizar o processo de troca de informação. Para realizar esse controle, algumas ferramentas foram utilizadas:

1.    WhatsApp – Embora o aplicativo de celular tenha função predominante de comunicação, a troca de fotos e links pode ser considerada uma maneira superficial e preliminar de troca e armazenamento de documentos.

2.    E-mail - Desempenha, assim como o WhatsApp, papel tanto na comunicação como na gerencia de arquivos. É uma maneira dos integrantes trocarem arquivos, de maneira experimental e superficial, antes que se decidam trabalhar ou não com esses documentos.

3.    DropBox – É a principal ferramenta de gerencia de arquivos utilizado pelo grupo. Nele é possível criar pastas e subpastas relacionadas a cada tema, de maneira a tornar a busca por um arquivo específico rápida e fluida. É de grande importância pois permite que os arquivos sejam visualizados e editados por cada um do grupo, bem como registrar qualquer tipo de mudança e adicionar anotações necessárias. Assim os integrantes podem se sentir mais livres e confidentes para trabalhar uma vez que as atividades se tornam mais transparentes. Outro fato a se destacar, é o gerenciamento de versões, pois este permite que os usuários editem arquivos e sobrescrevam-nos de maneira passível de recuperação dos dados. Um ponto chave da plataforma é o do cuidado necessário para que os documentos fiquem organizados. Uma vez que todo o time tem acesso ao upload de arquivos, é muito fácil criar uma quantia grande de arquivos desnecessários que se perdem em meio aos importantes. Para tanto, a utilização dos pontos 1 e 2 (WhatsApp e E-mail) é de extrema importância para o uso eficiente da plataforma.

4.    Trello – Como mencionado antes, a plataforma tem como objetivo democratizar o acesso às tarefas. A plataforma, ainda, é capaz de vincular os arquivos do DropBox à tarefas específicas. Assim o time de desenvolvimento pode acessar os arquivos que quiser diretamente no DropBox, bem como se manter atualizado sobre qual arquivo está tendo atenção no momento e acessá-lo facilmente pelo Trello.  

5.    Wikiversidade – Por fim, no lugar de uma ata tradicional, utilizamos a plataforma Wiki da Wikiversidade para registrar o andamento do projeto, bem como registrar metodologias e registros relevantes. A plataforma é também colaborativa e permite tanto o time quanto qualquer outra pessoa adicionar informações sobre o tema. Dessa forma, o conteúdo da Wikiversidade não está ligado diretamente ao DropBox nem ao Trello, apenas mencionado através de links.

Backlog inicial[editar | editar código-fonte]

  • Reunião do Dia 18/05:

O que foi feito: Primeiro alinhamento da equipe; divisão de qual assunto cada um gostaria de abordar a respeito do tema proposto; marcação de reuniões; criação de um grupo no Whatsapp que facilitasse a comunicação entre os membros.

Para Próxima reunião: Estudar sobre o tema e trazer informações para debate; Pesquisar sobre o seu tópico e trazer dúvidas, dificuldades ou questionamentos para discutirmos em grupo.

  • Reunião do Dia 25/05:

O que foi feito: Discussão sobre o tema: O que cada um encontrou, curiosidades, dúvidas, para que o conhecimento a respeito do tema fosse nivelado.

  • Definição das atividades para a entrega do projeto preliminar e responsáveis.
  • Reunião de planejamento dos sprints, criação do Trello, com o objetivo de facilitar a gestão da equipe.
  • Levantamento de dúvidas a serem tiradas com a professora.

Para Próxima reunião: Trazer o esqueleto do assunto que você vai tratar pronto (principais pontos a serem abordados). Criação da Wikiversidade e preenchimento da mesma. Atualização do trello. Trazer sua parte a respeito da metodologia pronta.

  • Reuniões posteriores:

As reuniões posteriores ao dia 25/05 foram dedicadas à execução das atividades e sprints da ferramenta Trello.

Desenvolvimento[editar | editar código-fonte]

Conceito[editar | editar código-fonte]

Expert Systems ou Sistema Especialista são sistemas de computação que quando alimentados, analisam as informações, processam-nas e obtém como output conclusões, conselhos ou diagnósticos ao usuário, atividade na qual antes era realizada por algum ser humano com especialidade na área. Sistemas especialistas são programas de computadores que resolvem tarefas muito complexas que chegam bem próximas a resolução de especialistas humanos. [10]

Se tratando da parte semântica da palavra, Sistema significa conjunto de partes que trabalhando de maneira conjunta, interagindo entre si, em prol de um objetivo, conseguem obter os resultados esperados.[11] Estes elementos interdependentes, quando juntos, formam um todo organizado. Já Especialista, quem se especializou em determinada área do saber ou sabe muito sobre determinada coisa.[11]

Conceituando de maneira mais objetiva e prática, um Sistema Especialista é de maneira geral um programa que obedece regras, ou às vezes heurísticas, que recebe informações sobre algum assunto bem específico e as analisa. Esse tipo de Sistema foi desenvolvido com o intuito de suprir a demanda de não precisar ser alimentado apenas com dados numéricos, e sim com informações mais subjetivas, de tal forma que ainda pudesse gerar conclusões sempre que recebe inputs e orientações.

Estes sistemas baseiam-se no raciocínio e no conhecimento, e utilizam em sua maioria “Rule-based systems” ao invés dos tradicionais “Procedural codes”. Os Rule-based expert systems possuem a habilidade de simular a tomada de decisão de profissionais especialistas. Eles foram criados para solucionarem problemas, explorando o conhecimento e a experiência humana.[12] Esse conhecimento pode ser retirado diretamente de humanos, ou através de pesquisas impressas ou digitais e é chamado de “base de conhecimento” do Rule Based System, enquanto sua outra parte é responsável por chegar a conclusões e é conhecida como Inference Engine, na qual contém uma lista de regras. Essas são responsáveis por aplicar a base do conhecimento para cada caso específico que é descrito no programa.

Algumas vantagens de se trabalhar com Sistemas especialistas são: a questão do custo, pois a máquina substitui o trabalho de um funcionário; tempo, pois a máquina tem uma velocidade de raciocínio muito rápida; são permanentes; podem ser usados para diferentes tipos de conhecimento; transmitem mais confiabilidade pois minimizam erros de humanos.

Histórico[editar | editar código-fonte]

Segundo McCorduck[13] e Herbert[14] a necessidade de construir máquinas que simulam o conhecimento de um especialista ou possuem a inteligência do homem data desde a antiguidade. A seguir, serão apresentados os marcos principais que influenciaram o desenvolvimento dos Sistemas Especialistas até os dias atuais.

Antiguidade[editar | editar código-fonte]

Na obra Ilíada, Homero escreve sobre as assistentes do deus grego Hephaestus, chamando-as de ‘virgens de ouro, vivendo como mulheres, com inteligência, voz, a energia de uma serva, habilidades de imortais e montadas em tripés com rodas que lhes permitiam movimentar... uma maravilha para os olhos’.[15] Além disso, no século 5 antes de cristo, Aristóteles estabeleceu a base epistemológica para a divisão do conhecimento em categorias, apresentando uma lógica silogística com a dedução racional. Ainda na Grécia Antiga, o conceito de ontologia na filosofia foi constituído como o estudo do ser enquanto ser, suas categorias, princípios e essência, ocupando as mentes de Platão, Aristóteles e Parmênides. Esses conceitos foram de extrema importância na construção do pensamento lógico e na ontologia referente à área de TI atualmente. 

Século XV à XVII[editar | editar código-fonte]

Ramon Lull, um dos mais importantes teólogos da língua catalã, inventa o ‘Ars Magna’, uma máquina feita para discernir a verdade, trazendo a razão. Nessa época foram criados os relógios mecânicos, as primeiras medições modernas, máquinas de diferentes funções foram sendo construídas e o alquimista Paracelsus utiliza o primeiro humúnculo (clone humano) com o objetivo de criação de vida humana artificial a partir de materiais inanimados. Nesse contexto, o Golem, para o judaísmo, foi inventado em 1580. Este, era um ser artificial mítico, associado à tradição do judaísmo que poderia ser trazido à vida através de um processo divino. Jacques de Vaucanson, em 1739, inventa o pato mecânico, um autômato em formato de pato que come grãos.

Blaise Pascal construiu a primeira máquina de somar mecânica no século XVII, inspirando Gottfried, Wilhelm Leibniz e o inglês polímata Robert Hooke a construirem máquinas aperfeiçoadas de multiplicação, divisão e até calculo de raiz quadrada.[16]

Século XVIII E XIX[editar | editar código-fonte]

Na literatura, segundo McCorduck, a ideia de um sistema inteligente proliferou com ‘O Homem de areia’ de Hoffmann, Franskentein de Mary Shelley e Faust (parte 2) produzido por Goethe. Em 1801, Joseph-Marie Jacquard inventou uma máquina de tear automática cujos padrões eram fornecidos por cartões perfurados e em 1822, Charles Babbage começou a projetar uma máquina a vapor programável para realizar cálculos de tabelas de navegação, que apresentavam serias discrepâncias nas operações, a máquina das diferenças.[17] A condessa de Lovelace, Ada Augusta King, em 1843 propôs programas de exemplo e discutiu técnicas de programação para a máquina analítica de Babbage.

Em 1854, George Boole desenvolveu um sistema de lógica simbólica e de raciocinado, a lógica booleana, que é utilizada até hoje para o projeto de circuitos digitais utilizados nos computadores. Assim, quase no século XX, em 1890, o norte americano Hermann Hollerith projetou um tabulador eletromecânico, que processava através de cartões perfurados a contagem do número de habitantes.

Século XX[editar | editar código-fonte]

Em 1937, Allan Turing realiza uma grande contribuição estabelecendo um dispositivo teórico capaz de executar qualquer algoritmo descrito, definindo a base da computabilidade com a Máquina Universal de Turing. Isso contribui para a decodificação automática da inteligência alemã através de mensagens realizadas na Segunda Guerra Mundial, pois o computador tornou-se uma ferramenta necessária par auxiliar no calculo de tabelas de balística para canhões navais e artilharia antiaérea em 1941. Quatro anos depois, Turing escreve sobre máquinas de computação e inteligência e contribui, juntamente com McCulloch e Norbert Wiener para a introdução do termo cibernética.[14]

John Von Neumann constrói o computador IAS em Princeton e em 1956, na Conferência de Dartmouth, John McCarthy propõe o termo ‘inteligência artificial’ que é demonstrada pelo Solucionador de problemas gerais de Newell, Shaw e Simon. McCarthy e Minsky fundaram em 1959 o Laboratório de Ciência da Computação e Inteligência Artificial do MIT sendo os pioneiros no estudo do tema.

1960[editar | editar código-fonte]

Lofti Zadeh, em 1965 inventa a lógica difusa (Fuzzy Expert System), que é a base para alguns sistemas especialistas na construção do valor verdade parcial. Alguns softwares foram desenvolvidos na época, como o ANALOGY, desenvolvido por Evan, STUDENT de Bobrow que resolvia problemas de álgebra e o famoso ELIZA, de Weizenbaum, que foi o primeiro software para simulação de diálogos. 

O primeiro sistema baseado no conhecimento humano (Knowledge Expert System) foi o DENDRAL, que tinha como objetivo desenvolver soluções capazes de encontrar estrutural moleculares orgânicas a partir da espectrometria de massa das ligações químicas de uma molécula desconhecida. Esse sistema adota um método de busca heuristica e conhecimento químico especializado na realização da busca, limitando a procura por situações promissoras. MACSYMA foi um sistema baseado no conhecimento humano algébrico computacional desenvolvido pelo MIT e MacHack, um jogo de xadrez com base no conhecimento algébrico.[13] O primeiro robô com inteligência artificial foi o Shakey, inventado em 1969 em paralelo ao surgimento da ARPANET, a primeira rede operacional à base de comutação de pacotes. 

Essa época foi marcada como a fase clássica da Inteligência Artificial Simbólica, onde o objetivo principal era que os sistemas especialistas simulassem a mente humana como um todo, desenvolvendo formalismos genéricos que fossem capaz de resolver qualquer tipo de problema.[4]

1970[editar | editar código-fonte]

Segundo Luger (2005)[18] e Simon Herbert (1970)[14], o Dendral era considerado um Sistema Especialista, porém, segundo McCorduck (2004)[13] o primeiro Sistema Especialista foi o MYCIN, desenvolvido na Universidade de Stanford por Edward Shortliffe que enfatizava a utilização de regras de julgamento onde havia elementos de incerteza que lhes eram associados. O Mycin, tinha como objetivo identificar bactérias causadoras de infecções graves e recomendar doses de antibióticos ajustadas para o peso corporal do pacientes, o que iniciava os estudos da inferência do conhecimento no diagnóstico e terapia médica.[19]

Sistemas especialistas considerados inaugurais com aplicação na Medicina são o PIP (Present Illness Program) desenvolvido em 1976 para realizar uma diagnóstico simulando clínicos na avaliação de pacientes com edema.[20] O INTERNIST-1, utilizado no diagnóstico de problemas complexos em medicina interna (Shortliffe, 1986)[21] e o CASNET, que é um sistema de assessoria em oftalmologia utilizado em pacientes com glaucoma.

Esse período de 1970 até 1980 foi marcado como fase romântica, assim o objetivo desta época era simular a inteligência humana em situações pré-determinadas e domínios específicos. Porém a principal limitação foi a subestimação da quantidade de conhecimento necessária para modelar mesmo os problemas mais simples, o que acabou por trazer outro foco para os sistemas especialistas na fase moderna.

A partir de 1980[editar | editar código-fonte]

O Sistema Especialista PROSPECTOR desenvolvido em 1981, foi feito por um geólogo de exploração nos estádios iniciais de investigar um possível local de perfuração. Posteriormente, esse sistema iniciou estudos de localização de depósitos minerais, como ouro e molibdênio. Nessa mesma época foi criado o DIPMETER ADVISOR, que até hoje é utilizado para interpretar resultados de perfuração de poços de petróleo e o XCON, utilizado na configuração de computadores da Digital Equipment Corporation. [4]

Aplicação atual[editar | editar código-fonte]

A utilização dos sistemas especialistas pode contribuir para melhorias na produtividade em atividades comerciais, científicas, tecnológicas e militares. O mercado oferece, atualmente, inúmeros pacotes comerciais de sistemas especialistas com interfaces amigáveis, os quais possuem várias aplicações (ENGELMORE, 1993), como o diagnóstico e identificação de problemas em dispositivos e sistemas em áreas diversas; planejamento e elaboração de cronogramas, como programação de vôos; tomada de decisão no setor financeiro; controle e monitoramento de processos, como os sistemas utilizados em usinas siderúrgicas e em refinarias de petróleo, os quais analisam, em tempo real, dados originados dos equipamentos e outros dispositivos, com o objetivo de detectar anomalias, prever tendências e controlar a correção de falhas e a otimização.[22]

É possível imaginar a aplicação de sistemas especialistas em praticamente todos os ramos que utilizam a máquina como fonte de informação, meio de comunicação e muito mais. Existem projetos de aplicação em diversos setores, como no trânsito ou até na área gastronômica. Porém, o que vem sendo mais utilizado são os de apoio aos negócios. Algumas áreas já são contempladas com sistemas especialistas eficazes e em funcionamento.

  • Administração: FOLIO ajuda administradores a determinar metas de investimento de clientes e selecionar portfólios que melhor preencham estas metas.
  • Advocacia: JUDITH ajuda advogados a argumentar a respeito de casos de lei civil.
  • Engenharia: SACON ajuda engenheiros a determinar estratégias para análise estrutural de problemas.
  • Física: GAMMA ajuda físicos nucleares a identificar a composição de substâncias desconhecidas.
  • Matemática: MACSYMA executa manipulação simbólica em expressões algébricas e tem ainda outras habilidades.
  • Geologia: PROSPECTOR dá suporte de consultor na exploração mineral.
  • Militar: ANALYST dá assistência a militares em diversas situações no campo de batalha.
  • Química: DENDRAL infere a composição molecular de compostos desconhecidos. 

Além dos clássicos exemplos de aplicações citadas anteriormente que são utilizadas até hoje, como Prospector, Dendral e Analyst, os Sistemas Especialistas são fortemente aplicados no diagnóstico e identificação de problemas em sistemas médicos e de engenharia. Porém, o principal questionamento dos Sistemas Especialistas atuais é como representar todo o conhecimento de um especialista em um sistema ? Para a solução desse problema foram desenvolvidos a Web Semântica, que é uma versão ampliada da Web atual, onde a informação é acompanhada por um significado bem definido e as ontologias que, como citado em conceitos iniciais, trata da representação do mundo, ou parte dele, de modo tal que as máquinas possam processá-lo.

A Basic Formal Ontology (BFO) é atualmente uma das maiores ontologias do mundo, projetada para uso em suporte de recuperação de informações, análise e integração em domínios científicos e outros. Outros exemplo de ontologias atuais são a Open Biomedical Ontologies (OBO), focado nas áreas biológica e médica, Office of Public Sector Information (OPSI), Integrated Public Sector Vocabulary (IPVS) e outros.

Tendências futuras[editar | editar código-fonte]

Uma das maneiras de se entender as tendências futuras em Expert Systems ao redor do planeta é analisando a produção de conteúdos nos Congressos Internacionais que ocorrem sobre o assunto, sendo grande parte deles organizados pela International Society for Intelligent Systems em Rockville, Maryland e pelo Instituto de Engenheiros Eletricistas e Eletrônicos (IEEE). O motivo de se analisar congressos e conferências é devido ao fato de estes reunirem tanto acadêmicos no assunto quanto empresas e pessoas que trabalham com Expert Systems na prática. Dessa forma, é possível construir um diálogo entre o que está sendo estudado e o que está sendo feito, para que se possa criar metas e entender quais são os desafios a serem vencidos nos anos futuros referentes a essa área.

Dos Conteúdos Analisados para se Verificar as Tendências Futuras[editar | editar código-fonte]

A análise foi feita com base em três fontes:

  • Artigos Científicos explicitados nas referências
  • Congressos da Intenational Society for Intelligent Systems
  • Conferências da IEEE
  • Estudo dos países pioneiros em Expert Systems

Os congressos estudados promovidos pela International Society for Intelligent Systems foram os seguintes:

  • Orlando, Flórida - 1991;
  • Lisboa - 1994;
  • Seul - 1996;
  • Cidade do México - 1998.

As conferências estudadas organizadas pela IEEE foram as seguintes:

  • Simpósio Internacional de Controle de Inteligência (ISIC), parte da Multi-Conferência em Sistemas e Controle 2011;
  • XX Simpósio Internacional em Inteligência de Máquina e Informática Aplicadas - 2012;
  • VII Simpósio Internacional em Inteligência Computacional e Informática Aplicadas -2012.

As tendências em aplicações de sistemas especialistas[editar | editar código-fonte]

Tem-se notado um crescente aumento na utilização de sistemas especialistas na área industrial na Europa, principalmente nos setores do ferro, engenharia elétrica e mecânica, energia, automobilístico, petróleo, papel, aerotransportes, construção civil e investimentos empresariais. Um dos países europeus com maior investimento na área é a Alemanha, que utiliza o conhecimento de Expert Systems principalmente em indústrias pesadas. Nota-se a produção de muito conhecimento no assunto na Espanha. Entretanto, esse conhecimento ainda não é aplicado na prática em indústrias, e se restringe ao ambiente acadêmico. A França produz conhecimento na área no setor de investimentos financeiros, e a Inglaterra é um dos países mais conservadores no assunto, e não investe tanto nessa área. Os Tigres Asiáticos começaram a investir bastante na área a partir de 1994.

Um facilitador dos investimentos é a redução de custos que ocorreu nas últimas décadas. As máquinas ficaram mais baratas e a quantidade de programadores aumentou. Na década de 90, o preço para se investir em pesquisa em expert systems ficava em torno de 100 a 500 mil dólares. Hoje em dia é possível criar um pequeno sistema por 1500 dólares. [23]

Pegando um panorama geral, as tendências em aplicações de sistemas especialistas, utilizando-se todos os dados dos países que participam de congressos na área, são:

Área de Aplicação Tendências de Investimento (%)
Engenharia-Manufatura 35
Negócios 29
Medicina 11
Energia 9
Agricultura 5
Telecomunicações 4
Governo 3
Leis 3
Transportes 1

Tendências:[editar | editar código-fonte]

Já no âmbito de tecnologias em Sistemas Especialistas que estão sendo desenvolvidas, nota-se que os principais campos de pesquisa tem sido:

  1. Sistemas Especialistas Distribuídos - Criam redes de conexão vastas e uma gestão do conhecimento consolidada.
  2. Sistemas Especialistas Difusos - procuram utilizar lógicas de variáveis múltiplas, ao invés da lógica computacional padrão booleana (verdadeiro ou falso)
  3. Aquisição de Conhecimento - Sistemas Especialistas que buscam ampliar o conhecimento sobre determinado assunto
  4. Compartilhamento de Conhecimento - Procuram compartilhar o conhecimento das máquinas entre si, para criar uma rede de informação capaz de trazer grande eficiência às atividades. O ramo de Internet of Things também busca atingir esse objetivo
  5. Machine Learning - Máquinas com capacidade de aprendizado a cada vez que executam uma atividade, gerando um constante aperfeiçoamento
  6. Redes Neurais - Procuram simular os mecanismos do cérebro humano de criar novas conexões e se rearranjar. Muito relacionado com o Machine Learning
  7. Inteligência Artificial com Técnicas Quantitativas - Criação de sistemas com inteligência própria com análises quantitativas
  8. Vericação e Validação - Sistemas capazes de verificar acurácia e precisão de informações
  9. Ferramentas de Sistemas Especialistas - Envolve o estudo da composição algoritmica de um sistema especialista
  10. Resolução de Problemas por Estudos de Caso - Sistemas capazes de pegar casos reais e analisar seus resultados para prever a melhor ação em casos futuros
  11. Gerenciamento com base em dados - Envolve tomada de decisão por meio de dados que embasem o processo decisório
  12. Sistemas Especialistas - uso de áudio, imagem, e várias formas de comunicação para compôr sistemas especialistas mais complexos
  13. Interfaces de Sistemas Especialistas - Envolve o estudo da interface do usuário de um Expert System. O principal desafio é torná-los intuitivos

Principais Desafios a serem superados[editar | editar código-fonte]

A questão dos recursos necessários para o prosseguimento nos avanços em Sistemas Especialistas é bastante importante. A pergunta feita muitas vezes será: o que preciso para desenvolver tal tipo de tecnologia? Qual o capital necessário, equipe mínima, questões burocráticas?

A começar com a questão da linguagem de programação, a tendência global tem sido cada vez mais concentrar a programação de computadores na linguagem C e suas derivadas (C#, C++, Java, etc). O motivo disso é que C é uma linguagem muito abrangente, que representa o ponto em que a programação nem é tão complicada a ponto de demandar muito tempo e dificuldade na programação, nem tão simples que acabe restringindo as possibilidades de programação.

Além de demandar uma linguagem ideal, a programação de sistemas especialistas muitas vezes passa pelo problema de otimização. Como a quantidade de funcionalidades e informações contidas nesse tipo de sistema é muito grande, os programas acabam ficando muitas vezes muito pesados e com dificuldade de rodar com eficiência. Entretanto, esse problema já vem sido resolvido devido ao fato de que as máquinas estão cada vez mais potentes e mais baratas, o que facilita esse aspecto. Ainda assim, o recomendado é que os sistemas não acumulem mais que 2000 regras.[24]

Por fim vem a questão de custos para desenvolvimento. Abaixo é possível visualizar uma tabela demonstrando o que é necessário para cada tipo de sistema:

Tempo Médio para Desenvolvimento Força de Trabalho Necessária Tamanho do Sistema (nº de regras, objetos e frames) Ambiente de Operação Típico Custo Médio das Ferramentas
Sistemas Pequenos 3-6 1-2 25-75 IBM-PC, XT DOS 2.0 up 500 a 2500 dólares
Sistemas Médios 12-24 2-3 150-500 IBM-PC-AT DOS 2.0 up 1500 a 6500 dólares
Sistemas Grandes 24-48 3-5 1000-2000 IBM-PC-AT ou MicroVAX 4000 a 25000 dólares
Sistemas Muito Grandes 60 + 5-8 3000 + Sun, Apollo, Workstations VAX mini 8000 a 65000 dólares

Possibilidades para Amanhã[editar | editar código-fonte]

O que mais se estuda hoje em termos de Expert Systems para o futuro é Redes Neurais e Machine Learning. Basicamente, esses tópicos consistem em elevar o nível de uma máquina o mais próximo possível de um ser humano: aprendizado com a experiência. Uma característica fundamental dos especialistas humanos é que a cada vez que executam uma atividade, melhor se saem nela, pois colhem aprendizados de seus erros e acertos. Isso é um desafio a ser implementado pelas máquinas, e alguns códigos implementam conceitos similares, como o vídeo abaixo, que ilustra um sistema que aprende a jogar futebol melhor a cada geração de código que se passa:

https://www.youtube.com/watch?v=cP035M_w82s

Esse tipo de código funciona com o mecanismo de gerações, e a cada geração, o código se reprograma para se adequar ao novo aprendizado. Entretanto, implementar isso em sistemas especialistas, sobretudo os que envolvem alto risco (como sistemas voltados para a medicina por exemplo) é bastante complicado. A principal dificuldade relacionada é que nós mesmos conhecemos muito pouco de como funciona nosso próprio aprendizado, o que torna muito difícil aplicar esse mecanismo a uma máquina. Entretanto, há diversos estudos sobre o assunto, financiados por diversas instituições, como Google e Apple (por meio do Core ML) e cada vez mais o mundo está caminhando para desenvolver sistemas capaz de se dar auto-feedback. Aplicações na prática só devem ocorrer, entretanto, daqui a vários anos.[25][26][27]

Aplicação prática[editar | editar código-fonte]

Como discutido até aqui, os sistemas especialistas já são tão reais que já não mais sabemos dizer com precisão onde estão presentes. Há, no entanto, a crença de que quanto mais esses sistemas se desenvolvem, mais impessoais e frias as relações homem-serviço se tornam. No entanto isso nem sempre é verdade, uma vez que desenvolvedores já estão tornando seus serviços inteligentes mais orgânicos, em especial nos últimos anos. Estes são quatro exemplos de como Sistemas Especialistas podem ser usados em um Restaurante, uma empresa aérea, um banco de varejo e um órgão público.

1.    Restaurante – Chefs[editar | editar código-fonte]

O que faz um bom restaurante ser bom? As respostas são as mais variadas, desde o atendimento, o ambiente, o tempo de espera, a localização, segurança, variedade de opções e muitos outros.  No entanto costuma ser um consenso que a característica mais importante é a comida. Não importa o quão bem se cumpra outros pontos se os clientes acham a comida insatisfatória. Por isso o papel de um chef é extremamente importante, tanto para gerenciar a cozinha e a qualidade dos pratos, quanto para manter o cardápio sempre atualizado e agradável às novas tendências.

Robôs já tentaram (e um esforço contínuo ainda vem sendo empregado) substituir o trabalho humano na cozinha. Uma vez que o trabalho humano é mais passivo de acidentes e atrasos de movimento, tecnologias nesse setor são muito promissoras. Todavia elas vêm falhando em um aspecto muito importante: Serem substitutas de um serviço humano. No entanto uma tecnologia nova dos Sistemas especialistas vem trazendo grande expectativa para o ramo de restaurantes: O Chef Watson (IBM).

O Chef Watson é um software que utiliza receitas em seu banco de dados, às une com os ingredientes disponíveis e cria receitas únicas. A ideia é que o programa, ao analisar milhões de receitas, ganhe a opinião crítica que um ser humano tem de dizer se algo será bom ou não. Porém, o sistema é capaz de identificar padrões de sabores que os humanos jamais conseguiriam, gerando receitas que parecem muito estranhas, mas muito saborosas. “There will always be a collaborative relationship between the cook and the information,” Briscione disse. “You could have the best computer in the world, but without someone who knows what they’re doing in the kitchen, it’s not going to work.” [28]

Outro ponto muito importante do Chef Watson, é o fato de ele poder sugerir receitas apenas baseado no que está disponível. Esta é uma tarefa que costuma ser especialmente estressante para pessoas que trabalham na cozinha, pois a solução nem sempre é trivial e o resultado é potencialmente comprometido. Os desenvolvedores dizem que com o Chef Watson é possível comer algo novo todo dia, e o melhor prato que ele já fez é o que será feito ainda.

Uma possível nova aplicação desse tipo de sistema um restaurante, seria a criação de um modelo de restaurante onde um cliente escolhesse os ingredientes que especialmente gosta, os que especialmente não gosta, e os que é alérgico. Assim o cliente teria um cadastro onde o programa não precisaria perguntar o que ele deseja. Ao sentar na mesa e digitar sua conta (em um tablete por exemplo) o programa geraria uma lista de pratos onde o usuário apenas deve clicar na foto que desejar. No final da refeição o cliente deveria avaliar seu prato para então o sistema melhorar sua base de dados.[28][29]

2.    Empresa aérea[editar | editar código-fonte]

A aviação mundial tem se tornado mais segura todos os anos. O avanço da tecnologia, tanto em novos sensores e equipamentos tem ajudado muito. Por parte dos pilotos, treinamentos cada vez mais intensos e cursos constantes sobre novos acidentes são essenciais para que exista esse avanço constante.

Sob situações normais, as habilidades de um piloto são mais que suficientes para garantir a segurança da aeronave. Sob situações de emergência, os pilotos também são bem treinados para agir com naturalidade e calma. No entanto, os tempos de resposta em uma situação de emergência devem ser os menores possíveis, algo que só uma máquina poderia fazer sem desviar atenção à emergência.

“But the true promise sits in the cockpit, where AI autopilots could help manage the complex airline operations and even respond to the millisecond-urgency of unfolding cockpit crises.”[30]

Carros autônomos como o da Tesla já são uma realidade, e empresas como a Uber já tem previsão para operar (mesmo que em teste) frotas comerciais autônomas. A dificuldade para produzir tecnologia semelhante no setor da aviação está diretamente relacionada com a obtenção de dados, uma vez que esses dados estão espalhados de maneira pontual em muitas centrais de monitoramento aéreo.

No entanto, os benefícios de um sistema especialista nas cabines são gigantes. Treinamentos quanto a novos acidentes poderiam ser atualizados automaticamente e rapidamente para todas as aeronaves em voo. A famosa “experiência de piloto” passaria a ser unanimidade e ainda mais precisa. Por exemplo, ao se atualizar constantemente sobre o consumo que as aeronaves tem, o sistema poderia prever com precisão o quilometragem restante mesmo que o sistema de aferição do volume parasse de funcionar.  

“We want to increase safety by trying to tackle the human-error factor that might be caused by stress, information overload, and sometimes a lack of sufficient and up-to-date training,” Disse Haitham Baomar, professor na University College London,[30] onde lidera uma equipe de desenvolvimento de um Sistema especialista piloto.

3.    Bancos de Varejo[editar | editar código-fonte]

Os bancos sempre foram símbolo de tecnologia quanto a facilidade dos usuários em utilizar seus serviços. Pelo menos essa é a ideia que que os banqueiros acreditam e tentam desempenhar. Não é à toa, afinal, o que movimenta mais a economia do que o próprio dinheiro? Tecnologias como o cartão de crédito, pagamento online, pagamento com NFC de celular e tantos outros são exemplos desse ramo.

Atualmente, um dos focos desse setor de desenvolvimento mira a experiência agradável do usuário através do contato não direto. Isso se deve ao fato de os usuários sentirem cada vez mais a falta do contato pessoal. Qualquer tipo de serviço prestado amplamente para a população enfrenta essa dificuldade de disponibilizar contato pessoal, especialmente devido ao alto custo envolvido. Além disso, empresas do ramo bancário já estão utilizando um maior contato pessoal como diferencial em suas vendas.

Entretanto, algum dos maiores bancos do mundo pensam que abrir mão do contato pessoal não significa abrir mão de uma experiência agradável e personalizada. Tudo depende do nível de desenvolvimento dessas tecnologias. Segundo Alan McIntyre,[31] chefe do Accenture's banking practice "The big paradox here is that people think technology will lead to banking becoming more and more automated and less and less personalized, but what we've seen coming through here is the view that technology will actually help banking become a lot more personalized,".

Para ser mais específico, especialistas acreditam que os gerentes e consultores de investimento poderiam ser amplamente apreciados com os sistemas especialistas nessa área. Uma vez que esses trabalhos envolvem grande análise de dados, esses sistemas poderiam prover auxílios em decisões por parte do cliente bem como agilizar determinados processos.

No entanto, destaca Steve Culps (Forbes)[31] :”Artificial intelligence can help banks dramatically improve operational efficiency and gain a much clearer understanding of where they are going, but it is still up to humans to make the big strategic decisions and set the course for AI and related technologies to help deliver profitable growth.”.

Sendo assim, o trabalho de gerentes e consultores de investimento (bem como outras áreas relacionadas ao contato com cliente) podem utilizar dos sistemas especialistas de maneira muito benéfica e eficiente, pois estes poderiam trabalhar alimentando o sistema cognitivo da aplicação e livrando tempo para aplicações mais elaboradas, como o desenvolvimento de algoritmos mais precisos e complexos para a interação do cliente. E tendo em vista a ampla escala de atuação dos bancos no mundo, o trabalho dessa categoria não seria reduzido, uma vez que esse tipo de sistema exigiria constante manutenção dos Wizards.[32]

4.    Órgão Público[editar | editar código-fonte]

Os sistemas especialistas têm papel de grande importância em boa parte dos serviços que necessitam de uma interação humana. Esta importância é especialmente acentuada em empresas de grande escala, uma vez que estas costumam ter um canal de relacionamento amplo com seus clientes. Esse papel advém do fato de que a mão de obra humana tem se tornado relativamente mais cara com o passar do tempo, devido ao custo de oportunidade relacionado com a menor produtividade e custo operante inerente.

Dessa forma, é evidente que os setores governamentais têm potencial de aplicação de grande escala. Isso se deve, além da grande necessidade de interação humana e elevados custos, à lenta adaptação que os governos enfrentam quanto à aceitação de modelos inovadores tecnológicos. Alguns especialistas afirmam que isso pode, em parte, dever-se ao medo que a sociedade e governo têm de diminuir a oferta de emprego. No entanto, segundo Daniel Castro, diretor do Center of Data Innovation, assim como as pessoas passaram pelo mesmo medo quanto à ideia dos caixas eletrônicos automáticos, também irão apreciar o melhor valor.[33]

Dentro da aplicação do setor público, o artigo da Universidade de Deloitte[34] definiu a aplicação da inteligência artificial em quatro níveis:  relieve, Split up, replace e augment. Cada uma dessas categorias tem por objetivo:

·     Relieve – (Aliviar) – tem por objetivo o uso da tecnologia cognitiva para a realização de tarefas simples e de rotina previsível. O grande objetivo é “aliviar” o tempo do trabalhador com o objetivo de faze-lo concentrar-se em atividades de mais alto nível e de maior produtividade.

·     Split Up – (dividir) – tem por objetivo a divisão de um trabalho para que parte dele seja automatizado por algoritmos, enquanto que o trabalhador tem o papel de finalizar a análise, ou até mesmo supervisioná-la.

·     Replace – (substituir) – tem por objetivo a substituição completa do trabalho de um humano. Um exemplo disso é a leitura do código postal escrito à mão em cartas, a qual pode chegar a 18000 cartas em uma hora. Essa categoria costuma ser criticada pois não costuma permitir flexibilidade em casos que exijam análise pouco diferente do esperado.

·     Augment – (aumentar) - É o nível mais avançado da I.A. no setor público e é diretamente relacionada com os sistemas especialistas. Envolve utilizar o humano como gerenciador de um sistema que substitui um trabalho. Seria uma fusão do replace e do Split Up, onde a supervisão necessária teria como objetivo a expansão da capacidade cognitiva, e não apenas sua manutenção de rotina.

Sendo assim, um grande exemplo é o projeto nEmesis ( Universidade de Deloitte), o qual criou um sistema especialista com foco na vigilância sanitária. O projeto teve foco na cidade de Las Vegas, e o objetivo era substituir a escolha das áreas críticas de analise antes feitas pelos trabalhadores, por algoritmos de predição baseado em indicativos de intoxicações alimentares. O sistema funcionava da seguinte maneira:

1.    Dados do Twitter eram coletados em toda a cidade de todos os usuários.

2.    Os Tweets próximos até 50 metros de restaurantes eram automaticamente atrelados uns aos outros. Assim o sistema sabia quem provavelmente tinha publicado sobre qual recinto.

3.    Baseado em regras de pontuação, o sistema rastreava as publicações desses usuários por cinco dias, e assim os pontuavam baseado em regras programadas para análise das mensagens em busca de identificar quem poderia ter uma intoxicação alimentar.

4.    No final da análise, o sistema podia prever com melhor precisão quais restaurantes deveriam ser fiscalizados antes.

O resultado do projeto teve um resultado positivo, onde 15 % dos restaurantes visitados foram autuados, em comparação com 9% do modo antigo, economizando-se tempo e dinheiro.

Dessa forma, uma possível aplicação desse modelo de sistema especialista seria a integração desse modelo de análise à aplicações móveis de avaliação de restaurantes. Foursquare, Ifood, google maps, Facebook, Yelp e tantos outros já desfrutam de um banco de dados e uma gama de usuários farta, a qual se conectada à serviços da vigilância sanitária, realizaria papel fundamental na identificação de pontos críticos.

Assim, quando vários usuários submetessem avaliações negativas de um restaurante em curto período de tempo, o sistema poderia marcar os usuários para então monitorá-los melhor, onde do modo atual todos os usuários são monitorados. Assim, com o sistema mais aliviado, poderiam ser feitas análises mais profundas das informações públicas, como publicações não só do Twitter mas como de outras redes sociais e comentários da experiência no aplicativo.

Essa seria uma aplicação de grande relevância pois, ao invés do usuário ter que procurar denunciar algo, ou o funcionário da vigilância sanitária ter de descobrir possíveis locais críticos, as informações fluiriam de maneira orgânica. Assim, casos menos óbvios poderiam ser detectados com uma precisão ainda maior do que a do exemplo do nEmesis, uma vez que outras fontes seriam usadas para gerar evidências mais robustas.

Entregas[editar | editar código-fonte]

Resumo impresso[editar | editar código-fonte]

No dia 06/06, apresentaremos a estrutura geral do resumo impresso, que será basicamente a compilação dos pontos mais importantes da pesquisa, da wikiversidade, das referências e documentos compartilhados ao longo do projeto. Com a entrega final, o resumo será entregue aos alunos e interessados no dia da apresentação.


Entrega moodle parcial[editar | editar código-fonte]

A entrega no moodle parcial será realizada por meio da construção de um documento pelo time baseado na wikiversidade. Com isso, todos os itens contemplados até agora na wiki e a pesquisa realizada estará no documento em pdf da entrega parcial no moodle.

Entrega moodle final[editar | editar código-fonte]

A entrega no moodle final será realizada por meio da construção de um documento pelo time baseado na wikiversidade. Com isso, todos os itens contemplados até agora na wiki e a pesquisa realizada estará no documento em pdf da entrega final no moodle.

Apresentação parcial[editar | editar código-fonte]

A apresentação parcial foi realizada através de um documento compartilhado no Dropbox onde cada membro do time adiciona as partes que acharem necessárias para a realização. Além disso, na reunião do dia 06/06 os membros vão passar a apresentação em conjunto, tirar as últimas dúvidas para o fechamento dessa primeira etapa.

Apresentação final[editar | editar código-fonte]

A apresentação final foi realizada através de um documento compartilhado no Dropbox onde cada membro do time adiciona as partes que acharem necessárias para a realização. Além disso, teremos reuniões de treinamento da apresentação final para tirar as últimas dúvidas para o fechamento dessa última etapa.

Conclusão[editar | editar código-fonte]

Considerações finais[editar | editar código-fonte]

O trabalho realizado foi de extrema importância para os alunos da disciplina Sistemas de Informação em Engenharia de Produção, da Universidade de Brasília, orientado pela Professora Cláudia Melo. Este, conseguiu atingir os objetivos iniciais de conduzir uma pesquisa teórica e aplicada, com resolução de problema, a respeito de Sistemas Especialistas e acrescentar literatura que possibilite o acesso a esse estudo e área de conhecimento a respeito do cenceito, histórico, aplicação atual, tendências futuras e aplicações práticas dos Sistemas Especialistas.

Aprendizados[editar | editar código-fonte]

A constante busca por soluções de problemas flexíveis e inovadoras, traz o cotidiano de realização de projetos um grande desafio pessoal e do time. Em meio aos problemas surge o aprendizado que é um processo de alinhamento e desenvolvimento da capacidade da equipe de criar os resultados que seus próprios membros desejam.[35] O time obteve até o momento alguns aprendizados importantes até o momento a serem relatados como:

  • Comunicação interna: Foi necessário durante a execução do projeto a introdução de outras ferramentas de comunicação e gestão de documentos que não tinha sido planejada anteriormente.
  • Desenvolvimento dos backlogs: Foi necessária a introdução de novos backlogs e atividades que não tinham sido planejadas anteriormente, visto a complexidade de algumas atividades que pareciam simples e que demandavam menos tempo.
  • Reuniões: Foi necessário adaptar o horário e local de algumas reuniões visto que o local usual (faculdade de tecnologia, em frente ao aquário) estava muito cheio e alguns membros estavam disponíveis alguns minutos depois do horário previsto.
  • Controle do andamento: Foi necessário o monitoramento mútuo de todos os integrantes na realização dos backlogs para que o projeto tivesse o andamento adequado.

Referencial Bibliográfico[editar | editar código-fonte]

  1. Takahashi, Tadao. Sociedade da informação no Brasil: livro verde. Ministério da Ciência e Tecnologia (MCT), 2000.
  2. Vickery, Alina, and Brian C. Vickery. Information science in theory and practice. Walter de Gruyter, 2004.
  3. Gudwin, Ricardo Ribeiro. Contribuições ao estudo matemático de sistemas inteligentes. Diss. UNIVERSIDADE ESTADUAL DE CAMPINAS, 1996.
  4. 4,0 4,1 4,2 4,3 Viana, Laura Cristina Simões, Olga Fernanda Nabuco, and Carlos José Saldanha Machado. "Ontologias e tecnologia da informação e comunicação: sistemas especialistas, web semântica e gestão integrada de compras governamentais eletrônicas." (2007).
  5. Gruber, Tom. "What is an Ontology." WWW Site http://www-ksl. stanford. edu/kst/whatis-an-ontology. html (accessed on 07-09-2004) (1993).
  6. 6,0 6,1 6,2 6,3 6,4 Liao, Shu-Hsien. "Expert system methodologies and applications—a decade review from 1995 to 2004." Expert systems with applications 28.1 (2005): 93-103.
  7. BITTENCOURT, G. Representação de conhecimento: da metafísica aos programas. In: SBC. (Org.). Cursos JAI’98. Belo Horizonte: UFMG. (1998) p.283-333. Disponível em:
  8. Wiig, K. M. (1994). Knowledge management, the central management focus for intelligent-acting organization. Arlington: Schema Press. 
  9. Dhaliwal, J. S., & Benbasat, I. (1996). The use and effects of knowledge- based system explanations: theoretical foundations and a framework for empirical evaluation. Information Systems Research, 7, 342–362. 
  10. Tyree A. Expert Systems in Law. New York: Prentice Hall; 1989
  11. 11,0 11,1 Ferreira, Aurélio Buarque de Holanda. Novo dicionário da língua portuguesa. Nova Fronteira, 1986.
  12. Giarratano JG. Expert Systems Principles and Programming. USA: PWS Publishing; 2002
  13. 13,0 13,1 13,2 McCorduck 2004, p. 5; Russell & Norvig 2003, p. 939
  14. 14,0 14,1 14,2 Simon, Herbert A. The sciences of the artificial. MIT press, 1996.
  15. Campos, Haroldo de. "ilíada de Homero." Vol. II. São Paulo: Arx (2002).
  16. Hillis, Daniel. PADRAO GRAVADO NA PEDRA, O. ROCCO, 2000.
  17. SOUZA, MAF de. "Algoritmos e lógica de programação." Pioneira Thomson Learning, São Paulo (2005).
  18. LUGER, G.F. Artificial intelligence: its roots and scope. In: Artificial intelligence: structures and strategies for complex problem solving. 5 ed. s.l.: Addison-Wesley. 2005. p.1-34. Disponível em: <http://www.cs.unm.edu/~luger/ai-final/chapter1.html>. Acesso em 14 de junho de 2017.
  19. Ross, T. "Machines that think." Health 243 (1933): 248.
  20. Pauker, Stephen G., et al. "Towards the simulation of clinical cognition: taking a present illness by computer." The American journal of medicine 60.7 (1976): 981-996.
  21. Buchanan, Bruce G., and Edward Hance Shortliffe, eds. Rule-based expert systems. Vol. 3. Reading, MA: Addison-wesley, 1984.
  22. Ontologias e tecnologia da informação e comunicação: sistemas especialistas, web semântica e gestão integrada de compras governamentais eletrônicas (2007, p. 143)
  23. IEEE 7th International Symposium on Applied Computational Intelligence and Informatics. 2012. Disponível em: <http://conf.uni-obuda.hu/saci2012/>. Acesso em junho de 2017.
  24. DORMAN, LEROY M. "Naval Oceanographic and Atmospheric Research Laboratory." Shear Waves in Marine Sediments (2012): 221.
  25. IEEE 10th Jubilee International Symposium on Applied Machine Intelligence and Informatics. 2012. Disponível em: <http://conf.uni-obuda.hu/sami2012/>. Acesso em junho de 2017.
  26. Liebowitz, Jay. "Worldwide perspectives and trends in expert systems: An analysis based on the three world congresses on expert systems." AI magazine 18.2 (1997): 115.
  27. IAEA. Current practices and future trends in expert system developments for use in the nuclear industry. 1993. Disponível em: <http://www.iaea.org/inis/collection/NCLCollectionStore/_Public/26/016/26016821.pdf>. Acesso em junho de 2017.
  28. 28,0 28,1 Chen, Ying, JD Elenee Argentinis, and Griff Weber. "IBM Watson: how cognitive computing can be applied to big data challenges in life sciences research." Clinical therapeutics 38.4 (2016): 688-701.
  29. Pinel, Florian. "What's Cooking with Chef Watson? An Interview with Lav Varshney and James Briscione." IEEE Pervasive Computing 14.4 (2015): 58-62.
  30. 30,0 30,1 Adams, Eric. Wired. In: AI Wields power to make flying safer maybe even pleasant. 2017. Disponível em: <https://www.wired.com/2017/03/ai-wields-power-make-flying-safer-maybe-even-pleasant/>. Acesso em junho de 2017.
  31. 31,0 31,1 Culp, Steve. Forbes. In: Artificial Intelligence is becoming a major disruptive force in bank's finance departments. 2017. Disponível em: <https://www.forbes.com/sites/steveculp/2017/02/15/artificial-intelligence-is-becoming-a-major-disruptive-force-in-banks-finance-departments/#47deeeb4f625>. Acesso em junho de 2017.
  32. CNBC. In: AI to become main way banks interact with customers within three years: Accenture. 2017. Disponível em: <http://www.cnbc.com/2017/03/28/ai-to-become-main-way-banks-interact-with-customers.html>. Acesso em junho de 2017.
  33. Newcombe, Tod. Governing. Artificial Intelligence: The next big thing in government. 2016. Disponível em: <http://www.governing.com/columns/tech-talk/gov-artificial-intelligence-government-technology.html>. Acesso em junho de 2017.    
  34. William D. Eggers, David Schatsky, Dr. Peter Viechnicki. Deloitte. AI-augmented government. 2017. Disponível em: <https://dupress.deloitte.com/dup-us-en/focus/cognitive-technologies/artificial-intelligence-government.html>. Acesso em junho de 2017.
  35. Oprime, Pedro Carlos, Rafael Monsanto, and Júlio Cesar Donadone. "Análise da complexidade, estratégias e aprendizagem em projetos de melhoria contínua: estudos de caso em empresas brasileiras." Gestão & Produção 17.4 (2010): 69-682.