Inteligência artificial é útil, mas última palavra deve ser humana

Publicado em 19/09/2019 00:10 em Software

A Inteligência Artificial (IA) é uma ferramenta útil, mas a última palavra deve ser humana, uma ideia que perpassou em várias intervenções de oradores que participaram no Q-Day, o evento anual da Quidgest, que hoje decorreu em Lisboa.

Paulo Novais, professor da Universidade do Minho, disse que a IA já está no nosso dia a-dia e já complementa a actividade humana, mas sublinhou não ser nada partidário dos “cenários apocalípticos de que a IA nos vai substituir”, ainda que “vá ser uma peça fundamental nas próximas décadas”.

Alertou que saber identificar que é um gato não é o mesmo que saber o que é um gato, as suas características, e a IA ainda está na fase de reconhecer um gato.

Afirmou que a IA está muito baseada nos dados e o que preocupa é a falta de transparência, precisamos ter uma IA explicável e para isso é preciso olhar mais para as redes neuronais.

Revelou que na Universidade do Minho estão a tentar perceber porque é que um sistema classifica certas coisas como tumores.

Paulo Novais disse que gosta mais de chamar inteligência sintética em vez de inteligência artificial e um grande problema está nas coisas que exigem uma resposta imediata da IA, como a condução autónoma.

Indicou que a legislação alemã, que é das mais avançadas na Europa em regulamentação dos veículos autónomos, indica que entre um humano e um animal se deve privilegiar o humano, mas não prevê o que fazer quando se trata de mais de um humano.

Como resolver isto? Temos de ter sempre um humano nas decisões, concluiu.

Paulo Novais afirmou que podemos construir um código de ética mas não reunirá consenso e haverá sempre abusos, que podem ser considerados como abusos por uns e não por outros.

Mário Figueiredo, professor no Instituto Superior Técnico, recordou que a IA permite abusos, como os do Facebook com as eleições norte-americanas e a geração de notícias falsas, em relação às quais é necessário intervir, mas defendeu que a única maneira de combater duradouramente esses fenómenos é a formação de espírito critico dos mais jovens desde muito pequenos.

Sobre a construção de código de software através de IA, alertou para que o código tem uma exigência de rigor muito maior do que outras aplicações, como a tradução automática.

Observou que a IA tem limites, nomeadamente em casos de decisões que, por razões legais, carecem de justificação e fundamentação obrigatória, como é o caso da concessão de crédito e muitas outras, não bastando dizer que foi a decisão do sistema.

Alertou ainda que quando uma pessoa da área de “Machine Learning” (a sua área) e outra da área de desenvolvimento de software falam de modelos, estão a usar a mesma palavra mas a dizer coisas muito diferentes.

Vasco Amaral, professor da Universidade Nova de Lisboa, sublinhou que o uso de modelos, entendidos como abstracções ou representações parciais ou simplificadas da realidade, tem como objectivo fazer inferências sobre determinada realidade ou sistema.

Considerou que, com a IA com modelação, é possível aumentar a produtividade e a qualidade e introduzir tecnologias de verificação/ teste, considerando que a IA com modelação está para durar, mas precisa de ter linguagens gerais (“general purpose”) ou específicas, estas restringindo o conhecimento ao essencial para a realização de tarefas.

Vasco Amaral defendeu que os robots humanóides são ficção científica, ainda não estamos lá, observando que a IA que funciona é neste momento “data driven” (conduzida por dados), embora também haja inferências.

O professor da Nova de Lisboa sustentou que é necessário que os profissionais desta área que saem das Universidades tenham ética profissional e um código de conduta bastante rigoroso, mas considerou que as universidades não investem nisso suficientemente.

O piloto de linha aérea Jaime Prieto, impossibilitado de estar presente, enviou ao Q-Day um vídeo em que defende que é preciso que a evolução tecnológica não conduza a desastres de avião e observou que os sistemas devem ser certificados e suficientemente testados antes de serem implementados.

Acrescentou que na aviação civil a IA deve servir para libertar o piloto para outras funções a bordo, mas o factor humano é sempre essencial e a supervisão humana não pode nunca ser dispensada.

Jaime Prieto considerou que o Boeing 737 MAX é a evidência de que se a tecnologia tender a ser desregulada e desregrada pode levar a desastres que podem p^r em causa a confiança das pessoas na fiabilidade dos aviões.

Destacou que o sistema do 737 MAX reagia baseado apenas numa fonte de dados, numa sonda, mas a aviação nunca se baseia numa só fonte e o ideal são pelo menos três, que garantem a redundância.

Criticou a pressa na implementação do sistema e disse que não se podem apresentar sistemas como fiáveis e testados quando o não são e apelou para que não se olhe para o desenvolvimento tecnológico principalmente como forma de redução de custos.

Indicou que o regulador dos Estados Unidos chegou a delegar no fabricante algumas questões de verificação do sistema, questão que está agora sob investigação.

Adiantou que no caso do 737 MAX, os pilotos receberam formação e informação insuficientes, o sistema reagia baseado apenas numa fonte de dados e em situações críticas actuava autonomamente e sobrepunha-se ao piloto, o que acabou em tragédias.

Adiantou que a Associação de Pilotos de Linha Aérea dos Estados Unidos já tinha levantado questões em relação ao sistema e tinha pedido à Boeing para modificar o sistema e garantir redundâncias da informação.

António Jesus, da Thales Portugal, disse que a transformação digital surge porque a mente humana não consegue reter e processar os enormes volumes de dados dispersos por vários dispositivos, e porque a capacidade de computação cresceu exponencialmente.

Destacou que a manutenção preventiva, que utiliza Big Data e IA, permite só intervir nos activos quando há risco de avaria a curto prazo, evitando muitos esforços e custos, mas também intervir antes de as avarias se concretizarem.

Gonçalo Conde, da Bubblevel, sublinhou que todos os dias somos inundados por milhões de dados que não conseguimos processar, o que leva a que não tomemos decisões ou não tomemos as mais adequadas com rapidez.

Observou que há anos atrás, com menores volumes de informação, tomávamos decisões mais rápidas e melhores do que as que agora tomamos sem aquelas ferramentas.

Defendeu são necessários algoritmos mas também é necessário conhecimento e teremos sempre de ser os juízes da informação que recebemos.

José Luís Ferreira, da Quidgest, assinalou que traz hoje no bolso mais capacidade de computação do que toda aquela de que dispunha há uns anos.

Destacou que há uma grande falta de engenheiros de software, defendendo que a geração automática de código vai transformar o desenvolvimento de software.

Estimou que dentro de alguns anos a maior parte dos empregos de software não são para fazer programação manual, o desenvolvimento será baseado em modelos elaborados por pessoas e a geração automática de código servirá para gerar novas aplicações.

José Ferreira sustentou que o software 2.0 é baseado em aprendizagem, “deep learning” e em redes neuronais.

Perguntou o que vai acontecer à indústria de software dentre de 10 anos e respondeu: “temos de esperar para ver”.

Ainda sem comentários