outubro 20, 2018

Algoritmo Mestre

Confesso que parti para "The Master Algorithm" (2015) com várias reservas: a primeira prendia-se com a dificuldade de trazer um assunto desta complexidade para uma discussão leiga; a segunda tinha que ver com a minha desconfiança sobre a possibilidade efetiva de se criar um algoritmo único, de tudo capaz. No final do livro tenho de dizer que Pedro Domingos, professor na Universidade de Washington, fez um belíssimo trabalho, não só o livro é acessível como nos abre o apetite para o tema. O que mais gostei, e acaba sendo o cerne do livro, foi da descrição das metodologias que estão a ser seguidas para que a máquina possa aprender, não por serem exóticas mas antes pelo contrário, por responderem por métodos que nós próprios, humanos, também temos vindo a utilizar para construir conhecimento.


Domingos abre o livro com uma constatação que por mais óbvia que seja nos continua a surpreender, o Machine Learning (ML) já faz parte das nossas vidas, e muito daquilo que fazemos no nosso dia-a-dia já é controlado por ele. Desde o modo como pesquisamos e encontramos livros na Amazon e filmes no Netflix, às informações e notícias que vão surgindo no feed do nosso Facebook ou Instagram, aos sites e links que o Google nos indica em cada pesquisa. Onde existirem bases de dados  grandes, o ML estará lá a trabalhar para nós. Enquanto espécie animal somos a espécie mais inteligente no planeta, contudo no que toca a processar dados, em volume e rapidez, temos poucas ou nenhumas hipóteses com os algoritmos processados por máquinas.

Domingos começa por discutir as diferentes fases do processamento do conhecimento no nosso planeta — "Evolução", "Experiência" e a "Cultura". A evolução deu-nos o DNA, o primeiro modo de construção de conhecimento no planeta, capaz de codificar vida. Seguiram-se os neurónios que codificavam toda a experiência percetiva em conhecimento que podia ser re-utilizado para navegar no planeta. Na terceira fase surge então a cultura, ou seja, a produção de conhecimento pelo ser humano. Domingos refere que cada uma destas fases foi sempre muito mais rápida que a anterior, apresentando de seguida, aquilo que considera ser uma 4ª fase, a do conhecimento produzido pelos computadores. Esta última fase levantou-me algumas dúvidas. Ou seja, considero que só poderemos colocar na equação de produtores de conhecimento os computadores, no momento em que eles nos começarem a dar conhecimento original. É verdade que os últimos sistemas desenvolvidos para jogar Go ou Xadrez, têm apresentado jogadas completamente novas, e momentos de criatividade em nada semelhantes ao que conhecíamos no humano, contudo parece-me que ainda é cedo para considerarmos estes resultados como inovação própria, ou externa ao humano. Ou seja, o que temos para já, do meu ponto de vista, ainda é conhecimento produzido por meio de ferramentas que são parte da Cultura. Veremos como evolui depois tudo.

Domingos diz-nos que cada nível destes representou sempre aumento de velocidade na produção de novo conhecimento.

Domingos prossegue a discussão apresentando então as 5 grandes metodologias para descobrir o conhecimento que hoje estão a ser utilizadas pelos criadores de ML: "Symbolists, Connectionists, Evolutionaires, Bayesians, Analogizers". O livro dedica uma secção completa a cada área, e aqui tenho de dizer que nem sempre foi fácil seguir Domingos, mas também porque não quis dedicar o tempo suficiente que cada uma das secções requereria se eu estivesse verdadeiramente motivado para aprofundar o estudo do ML. Se a motivação e a necessidade estiverem presente, o livro com mais algumas pequenas pesquisas na web poderá ser fundamental para ajudar quem deseje entrar no domínio. Aproveito para deixar aqui a abordagem proposta por cada uma das 5 variantes:

1. Symbolists - Logic - Inverse Deduction
Busca por preencher as falhas no conhecimento existente. Começa-se por um conjunto de premissas e conclusões e faz-se dedução invertida para tentar descobrir o que falta.

2. Connectionists - Neuroscience - Backpropagation
Emulação do cérebro, também conhecido por "deep learning", em que se criam redes artificiais de neurónios que desencadeiam relações a partir das conexões.

3. Evolutionaires - Evoluationary Biology - Genetic Programming
Simulação da evolução, busca-se emular o funcionamento e lógicas do DNA.

4. Bayesians - Statistics - Probabilistic inference
Redução Sistemática de Incerteza, utilizando a probabilística.

5. Analogizers - Psychology - Kernel machines
A busca de semelhanças entre anterior e atual, com vários modelos para encontrar as semelhanças.

Esquema retirado da rede.

Como podemos ver, estes são alguns dos métodos que temos utilizado para produzir conhecimento sobre a realidade e que estão agora ao serviço das máquinas. O desejo dos investigadores da área, de construir um algoritmo mestre que possa de algum modo construir os seus próprios métodos de aprendizagem, não é mais do que a singularidade discutida por Ray Kurweil, correspondente a um dos maiores medos da nossa espécie. O momento em que as máquinas se tornem conscientes e passem a ser como nós, ou pior ainda, nos ultrapassem, seguindo o "Homo Deus" de Harari. Domingos é bastante otimista neste sentido, e diz ter dúvidas sobre essa possibilidade. O principal argumento que apresenta é a "falta de vontade" da máquina. Diria que há alguns anos teria concordado, hoje não. A vontade não é algo não implementável, menos ainda num sistema autónomo com capacidade para aprender. Se existe algo que não vai faltar às máquinas é a vontade, porque implementadas as necessárias rotinas para continuar a aprender, elas tenderão a incutir vontade. E não faltam notícias (1, 2) nos últimos anos sobre situações destas, em que os sistemas de ML desatam a realizar coisas inesperadas, seguindo aquilo que a sua aprendizagem os vai motivando a fazer.

Para quem quiser entrar desde já nesta discussão sem ter de esperar pelo livro, o Pedro Domingos fez uma comunicação na Google muito boa, na qual resume todo o livro em 50 minutos. Aconselho vivamente e deixo-a aqui abaixo.

Pedro Domingos "The Master Algorithm" (2015) na Google

Sem comentários:

Enviar um comentário