Mostrar mensagens com a etiqueta investigação. Mostrar todas as mensagens
Mostrar mensagens com a etiqueta investigação. Mostrar todas as mensagens

agosto 26, 2019

Como Começou a Linguagem: a História da Maior Invenção da Humanidade

Começar por dizer que não sou de Linguística, embora trabalhe no domínio da Comunicação que opera alguns níveis acima na relação com o humano, e por isso possui relação com o conhecimento produzido pela linguística. Dizer que tendemos a conhecer mais Chomsky pelo seu ativismo político do que propriamente pelos seus contributos científicos. No entanto, tendo em conta a envergadura do seu reconhecimento é sempre complicado defender posições antagónicas, contudo, é isso que Daniel L. Everett faz neste livro, “How Language Began: The Story of Humanity's Greatest Invention” (2017). Everett doutorou-se com uma tese em linguística, baseada no seu trabalho de campo com tribos da Amazónia nos anos 1970, um trabalho que continuou sempre a evoluir e lhe permitiu chegar a esta afirmação que surpreende muitos linguistas: “Eu nego aqui que a linguagem seja um instinto de qualquer tipo, assim como nego também que seja inata”.


Sendo um livro sobre a génese da linguagem humana, precisamos de partir da base comum e aceite pela generalidade dos académicos linguistas, sobre o modo como criamos linguagem e que na área dá pela designação de “Gramática Generativa” ou “Gramática Universal”. Esta designação foi criada por Chomsky nos anos 1960 e pretendia identificar um conjunto de regras base de organização mental que permitiriam o surgimento e desenvolvimento da linguagem. Chomsky e colegas determinaram que esta organização terá surgido há cerca de 50 mil anos, tendo alterado completamente o nosso desenvolvimento cognitivo e social, distinguindo-nos dos animais. Deste modo, Chomsky afirma existir uma linguagem universal inata, que mais tarde Fodor e Pinker denominariam de “linguagem do pensamento” ou “mentalese”. Confesso que a primeira vez que li sobre esta teorização não me atraiu. O meu treino em comunicação faz-me trabalhar a realidade do humano como algo altamente variável culturalmente (o que é amplamente suportado por evidências empíricas), daí que aceitar a hipótese da existência de uma espécie de código universal a este nível, imbuído em todos de forma igual, me pareceu sempre extemporâneo.

Ora o que Everett faz neste livro é exatamente desmontar essa ideia de linguagem universal. Como disse, não é o primeiro, basta fazer uma pesquisa no Google Scholar para encontrar estudos e artigos em oposição. O meu primeiro choque surgiu com a leitura de "Louder Than Words: The New Science of How the Mind Makes Meaning" (2012) no qual Bergen apresenta a Hipótese da Simulação Corpórea com a qual sinto grande afinidade (não vou aqui detalhar, basta seguir o link para a discussão do livro). Mas talvez o maior choque, e só agora ao ler Everett me apercebi de tal, tenha sido com o livro de Tomasello “Origins of Human Communication” (2008), no qual o autor realiza um trabalho brilhante demonstrando o surgimento da comunicação a partir do gesto. Ou seja, a comunicação assente na expressão corporal, e na relação sistémica com o outro, e não a partir de um qualquer sistema inato interno.

Everett pega exatamente na questão dos gestos e na questão da comunicação, para demonstrar a origem evolucionária e socio-cultural da linguagem (apesar de só no final do livro sugerir a leitura de Tomasello). Não é muito difícil perceber esta posição se compreendermos a espécie-humana como formação de atores sociais altamente interdependentes. Ou seja, a linguagem, como muito daquilo que faz de nós pessoas, e não meros humanos, é emanada dessas relações, alterando-se a cada interação. Não é a universalidade que garante que comecemos a falar igual a outros sempre que passamos mais tempo com eles (ex. quando convivemos muito tempo com grupos com traços fonéticos ou dialecticais marcados, rapidamente os assumimos). Por outro lado, para além de nunca se ter detectado qualquer módulo responsável pela linguagem, nem tão pouco qualquer gene, é no mínimo estranho que a ser uma formação inata, não tenham sido também detectados até hoje nem anomalias congénitas nem qualquer hereditariedade dessas entre gerações. Aliás, nos trabalhos que têm vindo a ser desenvolvidos no campo da genética, (ver "Blueprint: How DNA Makes Us Who We Are" (2018)) fala-se de traços físicos e psicológicos, vai-se ao nível da personalidade que condiciona a nossa emocionalidade, mas não vi até ao momento qualquer estudo que incluísse uma variável de linguagem. Se realmente fôssemos dotados de um qualquer módulo, por mínimo que fosse, ele teria de estar contido em qualquer parte da nossa informação genética.

Mas Everett faz um trabalho muito mais minucioso, não se fica por uma argumentação de variáveis. O facto de ter trabalhado mais de 30 anos com tribos isoladas, permitiu-lhe chegar a sistemas linguísticos não contaminados culturalmente, e encontrar diferenças relevantes. No caso da tribo Pirahã, a principal descoberta tem que ver com a ausência de recursividade, demonstrando a impossibilidade de um módulo universal. A leitura sobre a cultura da tribo é extremamente interessante, podem aceder a um pouco da mesma na página Wikipedia. A questão da ausência de recursividade é fundamental na gramática universal, porque é ela que permite a auto-sustentabilidade linguística, que por sua vez garante criatividade, evolução e claro, progresso cognitivo. Evertt, ao encontrar esta tribo sem acesso a tal modo, mas capaz de linguagem e conversação, desenvolveu toda uma nova abordagem à linguagem assente na cognição semiótica de Peirce — no seu triângulo de significação: Index, Ícone e Símbolo. Deste modo, a comunicação existiria muito antes de existir recursividade, e a linguagem faria apenas parte da comunicação como um todo.

Voltando à questão da interação social, base da grande teoria de Bandura sobre a aprendizagem, existe um vídeo na TED que coloca a nu este mesmo processo. No experimento Ded Roy montou câmaras por toda a casa que captaram todos os momentos em que o seu filho acabado de nascer expressou palavras, e conseguiu deste modo captar a progressão da criação da linguagem e o modo como ela é moldada pela interação social, no caso com os pais. É um experimento impressionante, que vale a pena ver, ou rever. O bebé começa por emitir sons básicos, mas ao apontar para o que quer expressar, recebe o feedback dos pais, que replicam com a palavra correta. Deste modo a criança aprende que se quer aquele elemento, e se apontar não chega, precisa de dizer a palavra de modo a que os outros a compreendam. Ou seja, a criança não nasce com a capacidade de linguagem, mas antes com a capacidade de aprendizagem e modulação dos sons que produz. A nossa capacidade de aprender, permite-nos refinar tudo aquilo que fazemos por meio da interação e feedback com o real.

"O Nascimento de uma Palavra" (2011) de Deb Roy

Um outro ponto altamente problemático da teoria de Chomsky é a pragmática da comunicação, e que só pode ser ignorada por quem se foca exclusivamente na lógica matemática do social. Se a linguagem humana é sustentada numa sintaxe inata, de onde surge a semântica e a pragmática? Porque repare-se que a sintaxe nada vale para o ser humano sem semântica, e de nada serve na comunicação sem pragmática. E podemos ir mais fundo, como é que poderíamos defender a existência de um mentalese sem a existência de qualquer quadro de referência de significado. Ou seja, a que corresponde cada signo da mentalese, como é que o sistema atribui valor aos signos?

Claro que também tenho problemas com a proposta de Everett, nomeadamente com a sua proposta de que a linguagem terá começado há mais de 1 milhão de anos. A razão é simples, as evidências que temos de evolução da espécie em termos cognitivos, nomeadamente por meio de registos materiais — principalmente escultura e pintura — datam de há apenas 200 mill a 40 mil anos. Ou seja, algo aconteceu com a nossa espécie nessa altura para que esta tivesse começado a expressar e a criar. E repare-se que a linguagem é o primeiro ato criativo, já que depende da constante mescla e associação de palavras, e claro das ideias. Neste sentido, poderia dar-se razão a Chomsky. Pode ter acontecido uma mutação cognitiva no humano que o conduziu à produção de sintaxe, a mescla de sons e formação de palavras, que por sua vez tenhamos conseguido operar de forma mais evoluída pela semântica e pragmática.

A Caverna de Altamira, Espanha, apresenta algumas das primeiras pinturas humanas, tendo sido datadas com 30 mil anos.

Ainda assim, Everett toca num ponto que coloca em oposição e que me é particularmente caro, a conversação. Everett sugere que a evolução terá ocorrido a partir desta e não da gramática, o que para mim faz pleno sentido. A conversação é o sistema cognitivo social mais evoluído que alguma vez desenvolvemos. Não se trata da mera produção de sons, ou encadeamento e mescla de sons, mas envolve toda a nossa capacidade cognitiva — incluindo memória, percepção, atenção, aprendizagem, raciocínio, empatia, etc. Mas tal não invalida que algo aconteceu há 50 mil anos, e aqui discordo de Everett que defende que não houve qualquer alteração que foi tudo apenas resultado da mera progressão. É verdade que Everett sustenta no caso empírico da tribo Pirahã, que é uma tribo que vive apenas no presente, para quem não existe passado nem futuro, não produzem registos, nem possuem identificadores de número. Para Everett os Pirahã demonstram que se pode estar num estado anterior e ser dotado de linguagem, ou seja, sem qualquer salto cognitivo ou mutação. Mas também podemos questionar-nos se não é esta tribo uma anomalia, já que tal não foi encontrado em mais nenhum outra comunidade.

Pareço dar o dito pelo não dito, mas a grande questão, olhando às propostas de Everett e Chomsky, prende-se com uma diferença de ênfase. Ou seja, Chomsky tem razão sobre algo ter acontecido no nosso aparelho cognitivo, da ordem da linguagem ou outra qualquer. Tal como Everett tem razão ao dizer que não existe qualquer linguagem universal do pensamento, ou módulo cerebral. Podemos pensar então que existe algo que predispõe a espécie humana à linguagem, algo que surgiu apenas nos últimos 100 a 200 mil anos, não sabendo nós explicar o quê, nem como sucedeu. Na verdade, nada disso nos deve surpreender, a linguagem faz parte da nossa capacidade de produzir consciência, que ainda hoje temos dificuldade em definir, para não falar em compreender como terá surgido, ou sequer como se forma.


Atualização: 27 agosto 2019
Em 2009, numa entrevista com o Folha de S. Paulo, Chomsky dizia sobre  Everett: "Ele virou um charlatão puro, embora costumasse ser um bom linguista descritivo. É por isso que, até onde eu sei, todos os linguistas sérios que trabalham com línguas brasileiras ignoram-no". Esta reação é ridícula, porque passa a ideia de que Everett é o único cientista que não acredita na Gramática Universal de Chomsky. Deixo um artigo de Evans e Levinson sobre os Mitos das Linguagens Universais.

agosto 02, 2019

Blueprint: Como o DNA nos faz como Somos (2018)

O prólogo de "Blueprint: How DNA Makes Us Who We Are" de Robert Plomin diz várias coisas de entre as quais, a seguinte afirmação que se vai repetir ao longo de todo o livro, ainda que com ligeiras variações, mas apontando baterias sempre ao mesmo objeto:
“Genetics is the most important factor shaping who we are. It explains more of the psychological differences between us than everything else put together. For example, the most important environmental factors, such as our families and schools, account for less than 5 per cent of the differences between us in our mental health or how well we did at school – once we control for the impact of genetics. Genetics accounts for 50 per cent of psychological differences, not just for mental health and school achievement, but for all psychological traits, from personality to mental abilities. I am not aware of a single psychological trait that shows no genetic influence.”
Semenya foi esta semana proibida de correr em provas de atletismo se não tomar medicação que reduza a testosterona natural no seu corpo. Já sobre Phelps nunca nada foi dito sobre a sua fisiologia anormal (discussão abaixo).

Assim, e antes de lançar qualquer análise crítica ou tentativa de discussão quero dizer que sou grande defensor da variável genética. Acredito na relação 50/50 do impacto de cada domínio — natureza e ambiente — sobre aquilo que somos, ainda que por vezes tenda a deixar-me convencer que a natureza consegue dominar mais daquilo que somos do que a cultura e ambiente que nos vai moldando ao longo da vida. Por isso, não reagi violentamente ao livro como vi outros reagir, e como o próprio autor sabia que iria acontecer. Esta é uma guerra antiga, entretanto adormecida, mas a investigação em genética nunca parou e existem avanços significativos. Não apenas ao nível do controlo celular e do DNA, mas também de estudos longitudinais realizados. E Plomin é um dos investigadores mundiais com mais estudos no campo, tendo acompanhado várias comunidades, incluindo de gémeos, desde a nascença até aos 40 anos. Por isso existe neste livro muito que interessa a todos nós que estudamos domínios que lidam com o social, cultural e humano, e assim seja também defendido por outros.


Julgo que podemos dividir o livro em duas grandes partes: uma relacionada com a discussão daquilo de que somos feitos, e como a genética impacta sobre o indivíduo e a sociedade. E uma segunda parte, sobre a relevância e impacto da genética nas vidas dos indivíduos e sociedades nos tempos próximos. A primeira parte considero ser aquela que é mais relevante, porque nos leva a questionar vários modos de olhar a realidade. A segunda parte é aquela em que me junto ao coro de críticos, pelas razões que passarei a explicitar à frente.

Sobre a primeira parte, Plomin apresenta dados e estudos que suportam uma leitura com que estamos pouco habituados a ser confrontados no dia-a-dia nos dias de hoje, a da importância dos genes nas pessoas que somos. Por que não somos apenas aquilo para que trabalhamos, apesar de enquanto sociedade termos o dever de promover essa cultura, sabemos que essa é apenas meia-verdade, no entanto por todo o lado em nosso redor, parece muitas vezes preferir-se ignorar. Veja-se a parafernália de livros e estudos sobre talento de que tenho aqui vindo a dar conta: Outliers: The Story of Success” (2008) de Malcolm Gladwell; “Talent Is Overrated: What Really Separates World-Class Performers from Everybody Else” (2008) de Geoffrey Colvin, e “The Talent Code: Genius Isn’t Born. It’s Grown. Here’s How” (2009) de Daniel Coyle. Sendo verdade que a genética não é alterável e não podendo transformar-se, talvez por isso mesmo muitos acreditem que mais vale não falar dela. Contudo, do meu ponto de vista isso é um erro. É um erro porque se aceitamos que não podemos mudar a nossa genética, então precisamos de compreender mais e melhor essa genética para enquanto sociedade, e individuos, a podermos aproveitar da melhor forma, e não colocar a cabeça debaixo da areia.

Existem muitas áreas onde isto é relevante, mas talvez a mais relevante de todas seja a Educação. Continuamos hoje, com tudo aquilo que já sabemos a tentar formatar crianças da mesma forma em escolas fabris. E o meu problema não são as escolas em si, ou o modo fabril, ou meu problema é a não diferenciação das crianças, porque se segue uma ideologia de todos iguais, quando sabemos que tal não existe. Porque quanto mais formatarmos o social, mais evidente a natureza tornará as diferenças. Claramente que as crianças têm a ganhar em andar em escolas com pares da mesma idade, mesmo com cargas genéticas completamente diferentes, incluindo crianças com necessidades especiais, nada contra isso. O problema não é a criação de socialização, colaboração e redes de suporte societal. O problema é colocá-los todos numa mesma sala, apenas por terem a mesma idade, a aprender todos o mesmos, é com isso que não me conformo. E não estou a falar de inteligência, estou a falar de algo muito mais relevante, mas mais complexo, mas ainda assim mais determinante, e que tem que ver com a personalidade (e que agora querem também moldar com o que dizem ser uma novidade educacional: as competências). A personalidade de cada um determina diferenças fundamentais no humano, e essas são profundamente genéticas, o que acaba dando razão a Plomin quando diz que a genética tem maior capacidade de prever o futuro de uma criança do que as variáveis sociais, já que essas não são duradouras, enquanto a genética está lá sempre. Ou seja, aquilo que somos à nascença é determinante para aquilo que podemos vir a ser, não sendo uma guilhotina, tem grande importância e é extremamente importante compreender aquilo que somos à nascença, não apenas para nos conhecermos melhor, mas para podermos guiar e orientar as nossas escolhas em função das nossas melhores possibilidades, e não em função de ilusões e sonhos que a sociedade nos quer vender a todo o momento.

Sobre esta discussão Plomin apresenta imensos estudos demonstrativos das variáveis genéticas, desde gémeos que são educados por famílias completamente díspares mantendo no entanto sempre as mesmas tendências genéticas que os levam a construir vidas e a ter sucessos imensamente próximos mesmo quando o ambiente prediria o contrário, dando conta da força genética sobre o ambiente. Noutros, dá conta do que diferencia as escolas privadas de elite das escolas públicas, que nada tem que ver com melhor ensino, melhores escolas, melhores professores, mas apenas e só melhor seleção genética. Tanto que Plomin não fala de escolas privadas, mas escolas seletivas. Naturalmente que se fazemos testes à entrada, e deixamos apenas entrar os que melhor reagem ao que pretendemos avaliar, as diferenças com instituições onde não há qualquer filtragem têm de surgir. Os estudos de Plomin vão mesmo ao ponto de desmontar as variáveis sociais construídas nesse entorno, demonstrando que não são elas que tornam o futuro desses miúdos auspiciosos, mas é a sua carga genética de partida.

Trazendo para a discussão dois exemplos. Repare-se no caso atual de Caster Semenya, que soube esta semana que estava impedida de participar em provas competitivas de atletismo da IAAF enquanto não tomasse medicamentos que lhe fizessem reduzir os níveis de testosterona!!! Por todo o lado vemos esta sede de normalização, da Escola à Empregabilidade, como se não pudéssemos ser apenas diferentes por assim ter nascido. Repare-se como ideologicamente isto é mesmo um contrassenso, já que exigimos a aceitação societal das diferenças, incluindo a aceitação da variabilidade de género, mas chegados a pontos em que a diferença genética atira para fora da normalidade pré-convencionada, obrigamos à reposição biológica das diferenças para manter o status quo social. Claro que Semenya representa um problema para quem organiza provas convencionais, porque tem um corpo “demasiado” masculino para as provas de mulheres, mas “demasiado” feminino para as provas de homens, o que a coloca em lugar nenhum dessas convenções. Por outro lado, e para nos fazer refletir, porque nunca se levantaram questões deste tipo no caso de Michael Phelps, sabendo que o seu corpo sai completamente fora da norma colocando-o num patamar bastante distinto dos demais.


Mas tudo isto é pouco novo, o que o livro traz de novo é a segunda parte, que discute uma nova abordagem à genética assente em grandes bases de dados, seguindo uma nova técnica chamada de "genome-wide association study" (GWAS), sendo aquilo com que menos concordo, e que também tem sido mais atacado (review na Nature). Pensar a criação de sistemas de avaliação genética envolvidos em algoritmos de previsão futura, para a manipulação do bloco genético gestacional (ou seja, o famigerado design de DNA de bebés), em função desses algoritmos é completamente absurdo. E não estou a falar do medo de "Gattaca" (1997),  não é apenas um problem ético, embora por esse lado já fosse suficiente para cancelar qualquer processo destes, mas porque estamos a falar de algo que impacta em 50%, ou seja, transformar algo que sabemos que nunca terá impacto acima dos 50% não é fazer design, é jogar na roleta russa. Mas é pior, porque 50% é apenas o máximo a que se poderia chegar, já que em termos efetivos, e seguindo os métodos aqui propostos, estamos a falar de 10 a 20% de previsibilidade de traços, que o autor defende como sendo já algo muito relevante por ir além de que qualquer outro elemento de previsão (Plomin defende, por comparação, o género só consegue dar previsibilidades de 1% de variação). Pois seja, mas sendo maior continua a nada valer, 10% são completamente diluídos num mar de mundo dotado de acaso. Sobre esse acaso, o da variabilidade física do meio, indo a um extremo podemos pensar: de que adiantaria desenhar seres biologicamente imortais se eles pudessem simplesmente morrer quando atravessam uma estrada, que paradoxos, que caixas de pandora estaríamos a abrir?

Se o livro se lê bastante bem, e abre sempre discussões para nos debatermos, confesso que a certa altura comecei a sentir uma das críticas que mais tem sido feita a Plomin, e do qual todos nós padecemos, a confirmação de viés. Para quem estuda genética todo o tempo, vai-se tornando cada vez mais natural ver tudo pelos olhos da genética. Para Plomin, é possível explicar praticamente todas as variáveis ambientais como sofrendo de influência genética. Ou seja, seríamos genes, nada mais do que genes. Plomin, na sua senda e defesa da sua dama vai a ponto de afirmar que o ambiente — os pais, as escolas, a política — “matter, but they don’t make a difference”, porque segundo ele, são variáveis “unsystematic and unstable, so there’s not much we can do about them”.  Como se bastasse atirar as crianças ao leões e deixar que os genes se desenvencilhassem. Esquece Plomin que ao fazer tal estaria simplesmente a ignorar a 50% da variabilidade humana, mas pior ainda, estaria a esquecer o enorme impacto do cuidado humano à nascença e todas as variáveis sociais já amplamente demonstradas por estudos (o mais recente é deste mês) com muito maior valor empírico do que previsões de 10%.

julho 29, 2019

Das lamentações criativas

Confesso que me soube a pouco — "Blood, Sweat, and Pixels: The Triumphant, Turbulent Stories Behind How Video Games Are Made" (2017) — de Jason Schreier, tanto na análise dos casos — "Pillars of Eternity", "Uncharted 4", "Stardew Valley", "Diablo III", "Halo Wars", "Dragon Age: Inquisition", "Shovel Knight", "Destiny", "The Witcher 3" — como nas conclusões gerais. O facto de serem tudo jogos bastante conhecidos ajuda, e torna interessante a leitura, mas no final fica-se como se tivéssemos acabado de ler 10 artigos do Kotaku, um bocado mais extensos. Falta capacidade para aprofundar e poder de dar a ver, para causar reflexão. Nada do que se diz é propriamente novidade, nem tão pouco segredo como os blurbs que vendem o livro querem fazer parecer. Lê-se o primeiro capítulo sobre "Pillars of Eternity" e sente-se o mesmo discurso do documentário “Indie Game -The Movie” (análise), o que não é mau, dá algum gozo, sabe bem. Depois "Uncharted 4" confirma algumas dúvidas sobre o que tinha acontecido na relação entre Last of Us e Uncharted, sem nada de muito espantoso. E chegamos a "Stardew Valley" e o seu criador, Eric barone, para entrar definitivamente adentro de “Indie Game -The Movie”. O problema é que depois disso é sempre a descer, porque o resto dos capítulos são todos iguais, mais do mesmo, apenas com diferentes intervenientes, diferentes jogos, lugares e montantes, uma decepção completa. Schreier não só não aprofunda, como apresenta um espírito crítico de nível zero, para ele todos estes criadores são dignos de idolatração, resta-nos admirar o seu esforço e agradecer-lhes.

"Uncharted 4" (2016)

Já aqui tinha ressaltado a parte da introdução e das cinco razões por que é difícil fazer jogos (ver texto), contudo quero salientar, e não é uma conclusão nova embora o último capítulo —sobre o jogo que nunca o foi “Star Wars 1313" — tenha ajudado a despoletar esta minha visão, e que tem que ver com as indústrias criativas. Criar algo digno de ser apreciado enquanto obra, enquanto detentor de valor ético, moral mas acima de tudo significante, não está ao alcance de indústrias, corporações, fábricas desenhadas para fazer dinheiro. Claro que se podem criar carrosséis para parques de atrações, capazes de gerar sensações fortes e divertir as pessoas durante um bom bocado. Mas ir além disso, criar artefactos que marquem as pessoas, que lhes toquem e as transformem, que as façam desejar ter sido elas a ter criado aquela obras é algo completamente distinto. É por isso que criar um jogo, um filme, um livro é diferente de criar um software de gestão de supermercado, ou um manual para aprender a usar o Photoshop. Porque nestes últimos só importa a eficiência, enquanto nos primeiros, sendo relevante a eficiência, ela pode ser secundarizada pelo significado, já que sem este é completamente irrelevante a sua existência. Um jogo existe apenas para significar algo, para estabelecer uma relação entre quem cria e quem joga, se serve apenas para passar o tempo, usa-se e deita-se fora, como fazíamos com os manuais de 3d Studio Max.

O jogo que nunca existiu porque Lucas resolveu vender a empresa à Disney, e esta simplesmente decidiu que não queria fazer jogos para consolas!!!

Esta assunção marcou-me ao ler o último capítulo, no qual os trabalhadores da Lucas Arts, em entrevistas, dizem-se dispostos a aceitar tudo e mais alguma coisa de George Lucas, mesmo dizendo que ele nada percebe de desenhar um videojogo, apenas porque o vêem como um mentor de culto, mas a resposta de Lucas acaba por ser o total desprezo, vendendo a empresa à Disney que ao chegar resolve terminar com todos os jogos a decorrer, mesmo "Star Wars 1313", que já tinha sido apresentado na E3. Sobre isto, Schreier não tem uma única palavra, como se fosse tudo aceitável, como se a indústria fosse isto mesmo, dinheiro a mudar de mãos. Que interessa os anos investidos por 60 pessoas num jogo?!! Na verdade, se calhar Lucas tinha razão, o facto de ser um jogo feito por uma empresa tão grande, fez do jogo um projeto de ninguém, um projeto que deve apenas apontar à eficiência dos parâmetros que vão garantir o retorno do dinheiro investido, nada mais. Quem é que quer saber de mais um jogo sobre Star Wars?

Não vou dizer que o livro seja toda uma perda de tempo. Para quem já se envolveu nestas aventuras de criar obras, jogos ou outro tipo qualquer de obra criativa, facilmente se reverá nas descrições. Sim, porque a complexidade da criação de jogos pode ser ligeiramente maior que noutras áreas, mas a produção criativa humana faz-se do mesmo modo, movido por muitas ansiedades, neuroses, frustrações, euforias, alegrias e derrotas...

julho 20, 2019

5 Razões porque é Difícil fazer Videojogos

Comecei a ler “Blood, Sweat, and Pixels” do Jason Schreier e chegado ao final da introdução pareceu-me existir já material relevante para partilhar, tendo em conta que Schreier apresenta nessa mesma introdução uma espécie de síntese daqueles que são os problemas centrais da produção de videojogos, ou seja, dos elementos específicos que separam esta indústria cultural das demais, nomeadamente de um lado a cinematográfica, e do outro a de produção de software.


Definição do processo de produção de qualquer jogo:
“Every single video game is made under abnormal circumstances. Video games straddle the border between art and technology in a way that was barely possible just a few decades ago. Combine technological shifts with the fact that a video game can be just about anything, from a two-dimensional iPhone puzzler to a massive open-world RPG with über-realistic graphics, and it shouldn’t be too shocking to discover that there are no uniform standards for how games are made. Lots of video games look the same, but no two video games are created the same way”
As 5 razões apresentadas abaixo são o resultado da síntese de entrevistas a mais de 100 criadores da grande indústria internacional de jogos, entre 2015 e 2017, responsáveis por títulos como: "Pillars of Eternity", "Uncharted 4", "Stardew Valley", "Diablo III", "Halo Wars", "Dragon Age: Inquisition", "Shovel Knight", "Destiny", "The Witcher 3":


1. Eles são Interativos
“Video games don’t move in a single linear direction. Unlike, say, a computer-rendered Pixar movie, games run on “real-time” graphics, in which new images are generated by the computer every millisecond. Video games, unlike Toy Story, need to react to the player’s actions. As you play a video game, your PC or console (or phone, or calculator) renders characters and scenes on the fly based on your decisions. If you choose to walk into a room, the game needs to load up all the furniture. If you choose to save and quit, the game needs to store your data. If you choose to murder the helpful robot, the game needs to identify (a) whether it’s possible to kill the robot, (b) whether you’re powerful enough to kill the robot, and (c) what kind of awful sounds the robot will make as you spill its metallic guts. Then the game might have to remember your actions, so other “characters know that you’re a heartless murderer and can say things like, “Hey, you’re that heartless murderer!”
2. A Tecnologia está Constantemente a Mudar
“As computers evolve (which happens, without fail, every year), graphic processing gets more powerful. And as graphic processing gets more powerful, we expect prettier games. As Feargus Urquhart, the CEO of Obsidian, told me, “We are on the absolute edge of technology. We are always pushing everything all the time.” Urquhart pointed out that making games is sort of like shooting movies, if you had to build an entirely new camera every time you started. That’s a common analogy. Another is that making a game is like constructing a building during an earthquake. Or trying to drive a train while someone else runs in front of you, laying down track as you go.”
3. As Ferramentas são Sempre Diferentes 
To make games, artists and designers need to work with all sorts of software, ranging from common programs (like Photoshop and Maya) to proprietary apps that vary from studio to studio. Like technology, these tools are constantly evolving based on developers’ needs and ambitions. If a tool runs too slowly, is full of bugs, or is missing pivotal features, making games can be excruciating. “While most people seem to think that game development is about ‘having great ideas,’ it’s really more about the skill of taking great ideas from paper to product,” a developer once told me. “You need a good engine and toolset to do this.”
4. A Calendarização é Impossível
“The unpredictability is what makes it challenging,” said Chris Rippy, a veteran producer who worked on Halo Wars. In traditional software development, Rippy explained, you can set up a reliable schedule based on how long tasks have taken in the past. “But with games,” Rippy said, “you’re talking about: Where is it fun? How long does fun take? Did you achieve that? Did you achieve enough fun? You’re literally talking about a piece of art for the artist. When is that piece of art done? If he spends another day on it, would that have made all the difference in the world to the game? Where do you stop? That’s the trickiest part. Eventually you do get into the production-y side of things: you’ve proven the fun, you’ve proven the look of the game, and now it becomes more predictable. But it’s a real journey in the dark up until that point.” Which leads us to...”
5. É Impossível saber o quão "Divertido" será um Jogo até que o Joguemos
“You can take educated guesses, sure, but until you’ve got your hands on a controller, there’s no way to tell whether it feels good to move, jump, and bash your robot pal’s brains out with a sledgehammer. “Even for very, very experienced game designers, it’s really scary,” said Emilia Schatz, a designer at Naughty Dog. “All of us throw out so much work because we create a bunch of stuff and it plays terribly. You make these intricate plans in your head about how well things are going to work, and then when it actually comes and you try to play it, it’s terrible.”

Excertos da Introdução de “Blood, Sweat, and Pixels: The Triumphant, Turbulent Stories Behind How Video Games Are Made” (2017) de Jason Schreier, da Harper Paperbacks.

julho 14, 2019

A Ilusão da Memória: Recordando, Esquecendo e a Ciência das Memórias Falsas

O livro "The Memory Illusion: Remembering, Forgetting, and the Science of False Memory" (2016) não traz nada de muito novo, mas reforça com amplas evidências a fragilidade de algo que nos habituámos a acreditar como sendo a verdade daquilo de que somos feitos. Seguindo Damásio, o Eu é feito das memórias autobiográficas, por isso perceber o quão frágeis essas memórias são, e quão iludidos podemos tão facilmente ser, põe a nu a impotência daquilo que somos e ansiamos ser. Neste sentido, ler Memory Illusion funciona como uma espécie de porta para um ganho de maior consciência sobre o funcionamento do nosso inconsciente.


A especialidade de Julia Shaw é o estudo das memórias falsas. É professora na London South Bank University, e trabalha como consultora forense em casos relacionados com o abuso sexual. O foco do livro é sobre a facilidade com que se criam e apagam memórias, descrevendo-se técnicas sobre modos de fabricação de memórias falsas, e algumas tentativas para despistar as mesmas. É uma área de estudo pantanosa, já que incide totalmente sobre a subjetividade mais íntima, obrigando a trabalhar com grande latência ao erro, ou seja, sabendo que a verdade pode em muitos casos ser completamente impossível de recuperar.

Na generalidade gostei das abordagens, tive apenas algumas reticências nas breves incursões que a autora faz no campo educativo, nomeadamente no papel cognitivo da memória na aquisição de competências, tal como o pensamento crítico, deixou-se enredar facilmente pelo discurso do digital e da memória externa do Google, algo que acaba a fazer novamente quando discute o impacto das redes sociais nas memórias. O que vale é que estas duas incursões são muito breves, não podendo ser de outra forma, já que o foco e trabalho da autora está noutro campo.

Shaw não se inibe também de desmontar uma série de mitos, desde as memórias que alguns de nós pensam reter, anteriores à linha dos 3.5 anos, podendo rondar entre os 2 e os 5, mas colocando todas as memórias abaixo de 1 ano como simplesmente impossíveis. Parece existir um fascínio e grupos de pessoas que assumem recordar o dia em que nasceram, ou o primeiro objecto que viram, e no entanto tudo isso não passa de fabricações, como demonstram as dezenas de estudos realizados no campo. Outra das áreas que Shaw demonstra é a da hipnose, reconhecida por aparentemente ser capaz de recuperar memórias perdidas, algo também sem qualquer sustentação empírica. Do mesmo modo Shaw ataca sem qualquer pudor um dos métodos da psicanálise herdado de Freud, o tratamento por vida da recuperação de memórias traumáticas e reprimidas. Segundo Shaw, o que estes métodos — hipnose e psicanálise — tendem a fazer, é simplesmente criar memórias falsas, já que seguem todo o modus operandi da produção das mesmas.

Por fim quero deixar uma nota de reconhecimento e admiração pelo esforço que Shaw fez em evitar as chamadas universidades de elite, que não passam de universidades de propaganda, o que fica bem evidenciado pelo trabalho aqui apresentado, para o qual contribuíram dezenas de universidades europeias e estatais americanas, sem as quais o trabalho no campo hoje teria muito menos valor. Não raro, estes livros de divulgação limitam-se a citar meia-dúzia de universidades, sempre as mesmas, facilmente reconhecíveis e associáveis a uma chamada elite, ou seja a Ivy League americana e duas ou três inglesas, as mesmas que são citadas em todos os filmes de Hollywood e livros bestsellers. Shaw cita algumas dessas, mas não lhes dá qualquer espaço particular, não se coíbe como é tão usual fazer-se de citar universidades estatais americanas, e apesar de britânica cita imensas universidades europeias. Deixo uma listagem das citadas que apanhei rapidamente: Amsterdam, Geneva, Western Washington, Missouri, Oslo, Temple, North Carolina, Chicago, Tel-Aviv, Minnesota, Giessen, Nevada, British Columbia, Trier, Wilfried Laurie, Laval, Durham , Queen Mary, College of London, Southern California, New York, Columbia, Iowa State, Bordeaux, ESPCI Paris, Arizona, St Lawrence University, Freiburg, Cambridge, Stanford, Lille, Virginia, Harvard, Kent State, Tübingen, Zurich, Boston, Turku, Lethbridge, Stockholm, City, New South Wales, Flinders, Glasgow, Vanderbilt, Tufts, Dalhousie, Bielefeld, Cornell, Yale, Fairfield, Victoria, Maryland, Texas Women’s, MIT, Alabama, Illinois State, Hartford, Baylor, Duke, Toledo, Brown, Rice, Bern, Texas A&M.

julho 08, 2019

Storytelling e as Ciências da Mente

O livro “Storytelling and the Sciences of Mind” (2013) de David Herman, pela MIT Press, trata um dos temas que mais tem atraído o meu interesse nos últimos 15 anos, e que tem que ver com o modo como as histórias servem o nosso enquadramento da realidade. Tentar compreender como é que a organização narrativa de informação nos ajuda a compreender o mundo e os outros, como é que essa organização se relaciona com as nossas capacidades cognitivas e nos impele não apenas a refletir e a interpretar os mundos, situações e pessoas apresentadas, mas também a conceber e especular planos futuros para ação, produzindo assim transformações comportamentais a partir da relação com essas narrativas. O livro de Herman é brilhante, porque não se limita a um dos lados da questão, antes trabalha transdisciplinarmente a narratologia e as ciências cognitivas, importando e fusionando conhecimento de parte a parte. O único problema é estar escrito numa forma nada amigável para quem não estude a área, reduzindo completamente o alcance da obra.


Na última década não têm faltado trabalhos no domínio da narrativa e storytelling sobre a sua importância para o humano e para as nossas capacidades cognitivas (Gottschall, Brian Boyd, Paul Zak, etc. ), contudo como diz Herman esses trabalhos têm-se limitado a importar apenas de um lado para o outro. Ora Herman apresenta uma obra na qual apresenta um troca entre ambas as partes, alimentando mutuamente o conhecimento tanto da narrativa como do modo como apreendemos o mundo. Assim o livro divide-se em duas grandes partes, procurando responder às duas grandes questões: (1) “How do stories across media interlock with interpreters’ mental capacities and dispositions, thus giving rise to narrative experiences?”, ou seja, como é que interpretamos os mundos apresentados pelas narrativas. (2) “And how (to what extent, in what specific ways) does narrative scaffold efforts to make sense of experience itself?”, ou seja, como é que a narrativa contribuiu para a nossa compreensão da realidade. Para o efeito Herman propõe dois grandes conceitos: “Narrative Worldmaking” e “Storying the World”.

Assim para o Worldmaking, Herman propõe que as narrativas — independentemente do media — funcionam de modo referencial, providenciando estímulos cognitivos para a criação de entidades na forma de mundos onde as histórias acontecem. No “storying”, Herman propõe que as histórias configuram o modo como organizamos o fluxo do caos de estímulos da experiência diária. Deste modo, o worldmaking poderia ser visto como um instrumento de criação de sentido da realidade. Esta proposta de convergência de enquadramento teórico acaba por configurar aquilo que Herman define como o “mind-narrative nexus”.

Em jeito de introdução a toda esta teorização Herman abre o livro como uma discussão extremamente pertinente e com a qual me venho debatendo há algum tempo, a intenção autoral. Assim, só faz sentido configurarmos as histórias com base na criação de sentido se assumirmos que quem conta histórias o faz com uma intenção, ou seja, que a narrativa é em essência um ato de comunicação, algo que Walter Fisher já tinha proposto em 1985, mas que choca com alguns defensores da arte como algo não comunicacional. Do meu lado, tendo a aceitar mais facilmente que a arte possa não ser dotada de intenção comunicativa quando ela é de ordem simbólica — música ou abstracta — contudo quando falamos de estruturas narrativas, falar de ausência de intenção expressiva é no mínimo paradoxal. Para Herman isto é tanto mais central porque o modo como compreendemos as narrativas é a partir das razões que movem os personagens/pessoas sendo elas que conduzem as razões das histórias e sendo com elas que nós nos envolvemos. Porque os atos das pessoas nas histórias estão fundamentadas em "crenças", "intenções", "objetivos", "motivações", "emoções", "estados mentais" ou "competências" que para a interpretação do leitor têm de inevitavelmente ser atribuídas aos autores/criadores das narrativas.

Isto vai ao encontro da discussão que se segue que tem que ver com a análise não-redutível das situações e das pessoas nas histórias. Herman considera que apesar de podermos aprofundar neurocientificamente os constituintes de "pessoa", isso não nos ajuda a compreender o que acontece no processo de experiência dos recetores. Porque considera que os processos que decorrem acontecem ao nível da intersubjectividade, que pode ser definida em dois níveis, segundo Trevarthen  — primário, “the core of every human consciousness” que “appears to be an immediate, unrational, unverbalized, conceptless, totally atheoretical potential for rapport of the self with another’s mind”; e secundário “sympathetic intention toward shared environmental affordances and objects of purposeful action” — e que é responsável pela nossa noção de individualidade no seio da comunidade, e assim pela nossa capacidade de construir uma noção do nosso posicionamento nessa realidade. Deste modo as histórias servem não apenas o reforço de modelos sociais, mas servem fundamentalmente como experimento e teste desses modelos. Se as pessoas se baseiam nos seus conceitos do mundo para compreender o mundo apresentado pela narrativa, não deixam de usar essas mesmas narrativas como instrumentos de suporte ao pensamento crítico sobre esses conceitos. Ou seja, existe uma interação contínua entre aquilo que a narrativa apresenta e aquilo que é o mundo pré-exposição à história do recetor que conduz a uma discussão crítica interna.

Herman defende que o cerne do engajamento com as histórias acontece a partir do modo como podemos ou não mapear as pistas dadas em dimensões de configuração mental assentes no em: Quem, O Quê, Onde, Como e Porquê. E por sua vez como é que estas questões servem na passagem das categorias narrativas à definição dos personagens, para o que Herman defende que o leitor prossegue um conjunto de questões tais como:
(1) “For which elements of the WHAT dimension of the narrative world are questions about WHO, HOW, and WHY pertinent? In other words, in what domains of the storyworld do actions supervene on behaviors, such that it becomes relevant to ask, not just what cause produced what effect, but also who did (or tried to do) what, through what means, and for what reason?” 

(2) “How does the text, in conjunction with broader understandings of persons, enable interpreters to build a profile for the characters who inhabit these domains of action? Put otherwise, how do textual features along with models of personhood (deriving from various sources) cue interpreters to assign to characters personlike constellations of traits?” 

(3) “Reciprocally, how does the process of developing these profiles for individuals-in-a-world bear on broader understandings of persons?” 
Na segunda parte, dedicada ao "Storying the world", Herman dedica-se a desconstruir o modo como as narrativas podem servir de instrumentos ou ferramentas mentais para trabalhar o mundo, para o que apresenta cinco grandes modos de criação de sentido, ou modos de scaffolding (de suporte) ao nosso pensamento:

1 — “’chunking’ experience into workable segments”
Aqui Herman começa por exemplificar com a divisão em 3 atos de Aristóteles, que tem apenas como objetivo podermos separar em partes a experiência absorvida. Ou seja, particionar e atribuir estrutura à informação, organizando em “pedaços” facilmente indexáveis e chamáveis à memória. Neste processo de chunking enquadram-se vários processos, um também muito interessante é a noção de espaço versus lugar:
“stories can be used to turn spaces into places — to convert mere geographic locales into inhabited worlds. My analysis suggests that there is in fact a range of ways in which narrative can serve as a resource for transforming abstract spaces into lived-in, experienced, and thus meaningful places (..) As Johnstone (1990) puts it, “coming to know a place means coming to know its stories; new cities and neighborhoods do not resonate the way familiar ones do until they have stories to tell” (p. 109; cf. p. 119 and also Johnstone 2004; Easterlin 2012, pp. 111–151; Finnegan 1998; Relph 1985; Tuan 1977). Accordingly, “in human experience, places are narrative constructions, and stories are suggested by places” (Johnstone 1990, p. 134). Hence narrative worldmaking can also be described as a resource for place making—for saturating with lived experience what would otherwise remain an abstract spatial network of objects, sites, domains, and regions."
2 — “imputing causal relations between events” 
É esta componente que nos permite desenvolver pensamento crítico sobre o que acontece nas relações entre os agentes, analisar, contrastar e confrontar as razões, a justeza, a verdade e falsidade. Herman defende que lemos os eventos como ações que constroem o mundo-história dirigido a um objetivo, para uma meta que condiciona as ações e reações. No fundo esta abordagem pela causalidade serve também o chunking, já que permite relacionar eventos e ocorrências até aqui isoladas, em episódios ou cenas, que depois podemos utilizar mentalmente. Herman diz mesmo que as histórias funcionam como heurísticas de julgamento, que vão contribuindo para alimentar com regras básicas a nossa interpretação da realidade.

3 — “addressing problems with the 'typification' of phenomena” 
Neste ponto entramos num processo de chunking, ou organização, em parte, do modo como resolvemos problemas. No fundo, o modo como conseguimos partir do particular de cada história para a generalização da nossa relação com a realidade diária. Herman fala então da tipificação, ou categorização — em objetos e classes — que nos permite gerar expectativas para determinadas resultados de solução para situações nunca antes encontradas, através daquilo que já experienciámos. Assim “If assimilated to preexistent types, any encountered object, situation, or event can be placed within a “horizon of familiarity and pre-acquaintanceship which is, as such, just taken for granted until further notice as the unquestioned, though at any time questionable stock of knowledge at hand”. As histórias recebidas sobre o mundo fornecem contextos de tipicidade, garantindo a interpretação de ocorrências inesperadas, permitindo vários modos de resolução de problemas. No fundo, “a general account of narrative as a mind-extending, mind-enabling resource” (p. 251).

4 — “sequencing actions” 
Aqui a ideia é de que as histórias nos fornecem também uma espécie de protocolos de atuação, de racionalização da sequência de ações a tomar. Este processo é comparado por Herman à conversação, na qual nos organizamos para colaborar, aqui utilizamos as pistas para nos organizer para agir na relação com o problema proposto pela realidade.

5 — “distributing intelligence across time and space”
Este ponto surpeendeu-me porque me habituei a pensar nele a partir da rede de internet, e apesar dele ter nascido com o contar de histórias, e apesar de sabermos que esse é um dos grandes fundamentos das histórias, a passagem de conhecimento entre gerações, nunca tinha parado para compreender as histórias como um fenómeno de inteligência distribuída, que o é também.


Deixo ainda uma palavra para a complexidade do texto. Herman trabalha de forma soberba a abstração de conceitos, o seu problema acaba sendo a enorme dificuldade que tem em particularizar as mesmas. O livro denota um esforço tremendo no sentido de tornar o texto mais acessível, desde logo todos os capítulos apresentam introduções e conclusões de sumário, que repetem os argumentos, assim como são utilizadas várias histórias de vários meios — literatura, cinema, banda desenhada — para desmontar os conceitos, mas nem assim se torna mais fácil compreender o que é aqui discutido. É interessante como Herman compreende que a força das histórias está na particularização e individuação dos eventos e das ações, no uso das pessoas/personagens como veículos principais da compreensão, mas depois não consegue aplicar essas ideias na sua abordagem comunicativa. Não é uma mera questão de uso de jargão, embora diga-se que não houve nesse domínio qualquer controlo de danos, e isso também não ajuda, mas o maior problema são mesmo as enormes tiradas de conceitos abstractos, definidos por jargão, que se interligam e embrenham em novos conceitos, que obrigam o leitor a montar todo um enquadramento mental altamente exigente, para o que quem não possui experiência e conhecimentos anteriores da discussão se torna praticamente inacessível.

junho 23, 2019

A ciência de Steven Pinker, e dos seus

Uma rápida passagem pelas discussões genéricas em redor de “Enlightenment Now” passa a ideia de que uma boa parte não o leu, focando-se mais nas entrevistas e textos promocionais da obra do que no texto em si. Parece existir uma fixação da elite intelectual, mais de esquerda, em atacar os dados quantitativos e otimistas de Pinker, e uma fixação da elite científica, mais à direita, em defender esses mesmos dados. Quanto ao progresso visível nos dados, passo a discussão, Pinker não diz nada que Hans Rosling não tenha já dito em “Factfulness: Ten Reasons We're Wrong About the World – and Why Things Are Better Than You Think” (2018) (análise). Por outro lado, é tonto, para não dizer algo mais rude, ver Pinker ao longo de todo o livro a acicatar estes dois grupos de pessoas, querendo ele próprio colocar-se de fora, citando amiúde a seminal obra de CP Snow “The Two Cultures” (1959) (análise), mas de cada vez que o faz só se afunda mais num desses lados. Repare-se que estas duas culturas — que prefiro sintetizar pelos perfis dos modelos mentais, lógicos e ambíguos —, não são uma invenção do século XX, elas estão presentes desde a oposição entre Platão e Aristóteles, passando pela oposição entre Descartes e Hume, chegando aos estereótipos delineados por William James — “tender-minded” vs. “tough-minded” — que C.P. Snow opta por diferenciar como — “cientistas” e “intelectuais literários” — e que podemos apresentar, nos dias de hoje como — positivistas e interpretivistas.

Este mapa de conceitos explica muitos dos problemas do livro de "Enlightenment Now" (2018). No entanto se Pinker se coloca do lado do positivismo para defender o seu modo de ver, quando lhe interessa passa para o lado do interpretivismo, nomeadamente no que toca a atacar académicos como Bauman ou Foucault ou filósofos como Nietzsche.

Dito isto, teria pouco mais a dizer sobre o livro, porque como já disse Pinker não diz nada, em termos de dados económicos mundiais, que Rosling não diga muito melhor. Por outro lado, ao longo do livro as leituras que vai apresentando sobre esses dados são não só pouco novas, como pouco estimulantes, nomeadamente quando comparadas com as de Yuval Harari (análises dos seus livros). No entanto, não posso deixar de dizer algo mais sobre esta obra, mais concretamente sobre a terceira parte, e em especial os últimos dois capítulos — “Ciência” e “Humanismo — nos quais considero que Pinker destrói completamente a sua credibilidade enquanto académico moderado e conciliador, para não dizer mesmo enquanto académico.


No capítulo sobre Ciência, Pinker ataca diretamente Bauman e Foucault, rotulando-os de pós-modernos, anti-verdade, anti-ciência, anti-dados, tudo rótulos que não colam com nenhum dos autores, mas de que Pinker abusa para assim poder agregar valor ao trumpismo, populismo, conspiracionismo, etc. etc. O pior é que ao fazê-lo, rotulou esses dois autores com estes mesmos rótulos, o que é do muito ponto de vista, não um erro grosseiro, mas uma filha-da-putice (peço desculpa pela linguagem). É inadmissível que Pinker para defender as suas ideias, atire para a lama dois dos mais respeitados pensadores das ciências sociais, duas mentes dotadas de uma capacidade visionária impar. Não vou defender Foucault, que tem andado na boca de muitos, mas sobre o ataque  a Bauman tenho de falar.

Pinker não compreendeu, ou não quis compreender Zygmunt Bauman. Optou por simplesmente pegar nele e metê-lo no saco duvidoso em que estavam Adorno e Horkheimer, levando de arrasto o próprio Foucault. Ao fazê-lo cometeu um erro que destruiu tudo o que tinha para dizer. Adorno era um filósofo da Estética, não era sociólogo, ainda assim não se pode dizer que tenha só dito banalidades, muito do seu discurso de ataque à Arte Moderna na relação com o Nazismo faz algum sentido, claro que no final as suas teorias valem o que valem, falo extensivamente sobre isto na análise do “Doutor Fausto” (1947) de Mann (análise). Mas Bauman não era crítico de arte, foi um dos mais importantes sociólogos do século XX, judeu-polaco fugido dos Nazis para União Soviética, o seu impacto cresceu durante toda a segunda metade do século, recebendo as mais diversas premiações e condecorações científicas. Pinker comete um erro que vejo amiúde, misturar a discussão sobre Arte pós-moderna com a análise sociológica que define o tecido social como pós-modernista.

Vejamos então como para defender a sua visão otimista Pinker opta por dizer que a ciência não trouxe mais guerra, antes o contrário, e por isso não aceita que Bauman veja os nazis, o Holocausto, como fruto do Iluminismo. Ora, em primeiro lugar, isso mesmo diz Bauman, a evolução científica trouxe mais paz, mas isso não serve para eliminar a ciência da leitura, antes serve sim para tornar o Holocausto uma aberração ainda maior. Pinker do alto do seu racional lógico é incapaz de aceitar a anomalia à regra. Repare-se então como o tamanho e a brutalidade do que foi feito no Holocausto não é igual a nada na História anterior. Desde logo aqui seria preciso questionar-nos, então porquê agora? Mas Pinker, em vez de questionar, atira para o lado, do mesmo modo como faz noutros assuntos ao longo do livro, e menoriza mesmo, dizendo sobre o Holocausto apenas e só que racismo sempre existiu.

É preciso ler Bauman, ler como ele desmonta toda a máquina Nazi desde a burocracia à criação de rotina e desumanização, todo o modo como se constrói o distanciamento moral do ato violento. Nada disto era possível noutro tempo, porque nunca antes houvera civilizações tão racionalmente avançadas e organizadas para criar uma máquina que funcionasse sem controlo central, em cadeias autónomas. Repare-se como passados 75 anos não se sabe se a ordem para uma Solução Final chegou alguma vez a existir, pelo menos registos escritos não existem (ver “Shoa” (1985) análise), porque talvez a ordem nunca tenha mesmo sido proferida, mas tenha resultado de um conjunto de ideias, ordens, pressões, que se foram amontoando e culminaram em algo que provavelmente ninguém conseguiria sequer imaginar enquanto sujeito humano normal, e sim, a maior parte daqueles alemães eram pessoas normais, empáticas, com aversão à violência, mas o sistema conseguiu furar essas barreiras do humano. Repare-se ainda no modo como a racionalização científica atuou sobre a ideia de raça, não pela simples ideia da diferenciação de raças, mas pela lógica e causalidade, como fica explanado num excerto de Goebbels que Bauman cita:
"There is no hope of leading the Jews back into the fold of civilized humanity by exceptional punishments. They will forever remain Jews, just as we are forever members of the Aryan race." Goebbels
Ou seja, o racional está ali, não há como transformar judeus em arianos, por isso só nos resta aniquilá-los. A razão é lógica, só a compaixão poderia derrubar este racional, algo completamente inaceitável num sistema brutalmente lógico como o Nazi. Veja-se como as pessoas foram selecionadas para ser levadas para os campos, no caso de judeus regulares era direto, mas para aqueles que tinham casado fora do reduto judeu, criou-se uma fórmula de cálculo das gerações até às quais se contava o parentesco e a presença de sangue judeu. Isto não é algo que um grupo de simples racistas se lembrasse de fazer, isto é feito assim para garantir a solidez da razão lógica, inquestionável, justificando plenamente a ação (leia-se “La Storia” (1974) (análise)).

É muito triste ver Pinker a desancar em Bauman e Foucault, dizendo barbaridades como o facto de eles não utilizarem dados quantitativos, ou de se dedicarem a meras abstrações (sendo a abstração o reino por excelência do racionalismo e positivismo) e depois pondo-os no mesmo saco de comentadores de jornais, e extremistas que atacam a ciência a partir do seu mero fervor religioso, ou simplesmente, porque financeiramente não lhes dá jeito, como no caso dos Republicanos e o aquecimento global.

Mas não posso dizer que me tenha surpreendido totalmente, Pinker é psicólogo, mas o seu discurso está completamente imbuído de positivismo, mesmo que ele vá dizendo amiúde que a ciência é um contínuo refinar de hipótese e teses, amiúde vai dizendo que a ciência é a última verdade. Ora um posicionamento destes é inaceitável. Não podemos querer tudo, não podemos querer fazer da ciência religião e política, porque ela nunca quis tal lugar. Sim, vivemos tempos de Humanismo, em que as religiões caíram e resta-nos a ciência, mas usemos a ciência para nos ajudar, não para nos controlar. Aliás, é isso mesmo que se discute em “Doutor Fausto”, o problema da racionalização é que impede o subjetivismo, levado ao extremo seremos todos tão racionais quanto iguais, e nisso a única coisa que poderemos ganhar é o fim da nossa liberdade interior.

No fundo Pinker ataca todos, tanto os que ousam duvidar do discurso científico, como aqueles que duvidam de tudo ou simplesmente são lunáticos, e assim acaba a juntar-se à turba de lunáticos, atirando indiscriminadamente sem olhar a quem. Se alguém ousa falar mal da ciência, deve ser imediatamente excomungado. Esquece Pinker que a ciência só existe enquanto criação humana, não nos foi enviada por nenhuma entidade exterior e divina. Como tal a ciência tanto nos dá a Penicilina como nos dá Hiroshima. Não se pode simplesmente contorcer o discurso, porque se não não estamos a falar de ciência, mas de política, de aniquilação do pensamento daqueles que não podem exercer pensamento crítico.

No fundo, falta a Pinker tudo aquilo que ele passa mais de metade do livro a pregar: abertura suficiente para reconhecer que só podemos viver em paz se nos aceitarmos uns aos outros nos diferentes modos de viver. Porque o progresso científico sendo um ganho fenomenal para a raça humana, deve evoluir ao ritmo que for possível, e não ao ritmo que teoricamente, ou racionalmente, nos pareceria desejável.  Para fechar, deixo um apanhado do último capítulo, que entretanto tinha colado no Facebook, e que julgo falar por si, sobre o que podem esperar deste livro, em termos de cientificidade:
“If one wanted to single out a thinker who represented the opposite of humanism (indeed, of pretty much every argument in this book), one couldn’t do better than the German philologist Friedrich Nietzsche”
..
“Nietzsche helped inspire the romantic militarism that led to the First World War and the fascism that led to the Second.”
..
“Nietzsche posthumously became the Nazis’ court philosopher”
..
“The link to Italian Fascism is even more direct”
..
“The connections between Nietzsche’s ideas and the megadeath movements of the 20th century are obvious enough: a glorification of violence and power, an eagerness to raze the institutions of liberal democracy, a contempt for most of humanity, and a stone-hearted indifference to human life.”
..
“So if Nietzsche’s ideas are repellent and incoherent, why do they have so many fans? (..) A sample: W. H. Auden, Albert Camus, André Gide, D. H. Lawrence, Jack London, Thomas Mann, Yukio Mishima, Eugene O’Neill, William Butler Yeats, Wyndham Lewis, and (with reservations) George Bernard Shaw,”
..
“he was a key influence on Martin Heidegger, Jean-Paul Sartre, Jacques Derrida, and Michel Foucault, and a godfather to all the intellectual movements of the 20th century that were hostile to science and objectivity, including Existentialism, Critical Theory, Poststructuralism, Deconstructionism, and Postmodernism.”
..
“the [Nietzsche] mindset has sat all too well with all too many of them. A surprising number of 20th-century intellectuals and artists have gushed over totalitarian dictators, a syndrome that the intellectual historian Mark Lilla calls tyrannophilia (..) Ezra Pound, Shaw, Yeats, Lewis (..) H. G. Wells (..) Sartre, Beatrice, Sidney Webb, Brecht, W. E. B. Du Bois, Pablo Picasso, Lillian Hellman (..) Foucault, Louis Althusser, Steven Rose, Richard Lewontin (..) Graham Greene, Günter Grass, Norman Mailer, Harold Pinter, Susan Sontag"
Atente-se na irracionalidade dos pesos colocados nesta interpretação, pois aqui Pinker esquece completamente a sua preciosa busca pela verdade, pelos dados de suporte. Para Pinker, um movimento de transformação global da sociedade, em que a ciência tudo revoluciona pela força da tecnologia colocada ao serviço da industrialização, não tem qualquer relação com o Holocausto. Mas um simples professor universitário que passou por várias crises de insanidade, pode perfeitamente ser o responsável pelas guerras mais devastadoras até à data.

Leituras adicionais recomendadas:
The World's Most Annoying Man, Current Affairs, Maio 2019
Unenlightened thinking: Steven Pinker’s embarrassing new book is a feeble sermon for rattled liberals, New Stateman, Fevereiro 2018

maio 28, 2019

As Duas Culturas (1959)

Este livro foi feito a partir de uma palestra dada por C.P. Snow em 1959, tendo gerado imensas ondas em toda a academia, muitas delas contra Snow, condenando-o por contribuir para o aumento da divisão que queria ilustrar entre ciências e humanidades. Devo confessar que fiquei surpreso por ler tais condenações, ainda mais quando feitas por pessoas como Stephen Jay Gould, e não menos fiquei ao procurar comentários mais recentes e encontrar pessoas defendendo que Snow se limita a afirmar o óbvio, para a seguir dizerem que as coisas são muito simples e deveríamos ser todos capazes de nos entendermos. Isto demonstra uma atitude baseada em ideais e não numa análise minimamente objetiva da realidade.


Talvez se fosse há alguns anos eu teria concordado com a ideia de que todos os grupos de pensadores se deveriam entender, independentemente da abordagem ao real que fazem, mas hoje, isto parece-me no mínimo ingénuo. Acreditar que Aristóteles discordou em quase tudo do seu professor Platão apenas por birra, só pode ser tonto. As suas discordâncias estão exatamente na génese daquilo que Snow aqui identifica, e têm que ver com as motivações e personalidades de cada um que os levaram a construir modelos da realidade distintos, no caso, opostos. Ou seja, não penso o mundo a partir de uma tábua rasa e do conhecimento que experiencio ou me transmitem, mas filtro-o através daquilo que sou, e do modo como desejo transformar o mundo que me rodeia.

É verdade que o livro não ajudou, porque Snow não ajuda, nada mesmo. Não há um método na divisão, nenhuma definição sequer é apresentada sobre ambos os lados, nenhuma caracterização dos diferentes perfis é apresentada, nenhuma análise social é feita, menos ainda qualquer traçado comportamental, cognitivo ou emocional é apresentado. Deste modo, Snow cria um argumento meramente no ar, a partir de uma ideia do senso comum que segue o erro, hoje clássico, de caracterizar pólos a partir de médias. Vemos muito isto quando se quer classificar atividades em termos de orientação: homem ou mulher. Nestes casos usam-se curvas de Bell que nos mostram que existem maiorias de homens que gostam de A e maioria de mulheres que gostam de B, e por isso diz-se que os homens gostam de A e as mulheres gostam de B. O problema destas abordagens é que esquecem que junto ao pico da média dessas curvas, existe uma divisão, e para um desses lado, existem faixas enormes de homens e mulheres que não se identificam, que não encaixam nessas classificações simplistas. E foi isso que aconteceu com este texto de Snow, porque usar cientistas contra estudiosos de literatura, não podia dar outra coisa se não um mar de cientistas que adora literatura, e um mar de estudioso literários que manifestam interesse pelas ciências, e que por isso consideram toda a conversa de Snow ridícula.

Se Snow tivesse apresentado um divisão por interesses, objetivos ou metas em vez de classificar as pessoas em etiquetas genéricas, teria com certeza conseguido gerar uma discussão mais equilibrada em redor desses argumentos, em vez de colocar grupos sociais uns contra os outros. Por outro lado, se o tivesse feito não teria conseguido chamar tanto a atenção, só um nicho se teria interessado pela discussão, e o livro talvez tivesse caído rapidamente no esquecimento.


Nota sobre a tradução: Acabei desistindo desta edição portuguesa, mas depois de pegar na original de Snow, percebi que o problema não era da tradução, o atabalhoamento da discussão está mesmo no original, talvez por se tratar de um texto transcrito de uma comunicação. Ainda assim considero que Snow poderia, deveria, ter revisto o texto antes de o deixar publicar.

Mitos da Investigação Fundamental e Aplicada na Europa e Portugal

Existe uma ideia, recente em Portugal, de que as Universidades devem ser os motores da inovação do país, que devem ser as responsáveis por toda a investigação nacional, desenvolvendo-se ali o futuro do tecido industrial nacional. Ora isto é uma ideia sem pés nem cabeça. Diga-se que para isto muito contribuíram as faculdades de Engenharia, do IST à Universidade de Aveiro, ao desenvolverem modelos cada vez mais próximos da indústria, ou seja, aplicados, mas que estão longe de poderem servir de modelos a aplicar a toda a Universidade Portuguesa como modus operandi. Antes de explicar porquê, vou apresentar alguns dados que desmontam algumas ideias feitas, ou mitos.

Apenas 6% do investimento em investigação nas universidades americanas provem da indústria, a maioria (60%) vem do estado, e outra fatia vem das propinas dos alunos (25%).

Nos EUA a investigação nas Universidades é sustentada pelo Estado, como se vê neste gráfico acima, apenas 6% do investimento em investigação feita nas Universidades provém da indústria. E isto inclui universidades privadas como MIT, Stanford, etc. Ou seja, a ideia de que a Universidade na Europa, e a portuguesa, deveriam ser auto-financiadas por recurso a investigação feita com as empresas, porque é assim que se faz nos EUA, é um Mito.

O investimento americano total em investigação é maioritariamente feito pela indústria. o que contrasta desde logo com o gráfico acima, demonstrando que a investigação nos EUA se faz nas empresas, não nas universidades.

Olhando para a R&D americana, o seu verdadeiro pulmão está na indústria. É verdade que é ela quem mais paga para que se faça investigação, mas ela não paga às Universidades para a fazer. Essa investigação é feita nas empresas. Na HP, IBM, GM, Google, Apple, etc. etc. Porquê? Porque estamos a falar de uma investigação diferente, daquela que deve ser feita nas Universidades.

Repare-se ainda como na Europa, o programa H2020 (2014-2020) mudou completamente a agulha do investimento, pondo muito mais dinheiro nas empresas, assumindo-se cada vez mais as empresas como coordenadoras de projetos, ao contrário do que acontecia nos programas quadro anteriores. Ou seja, procura-se o modelo americano, mas apenas pela divisão dos dinheiro, já que quando olhamos ao gráfico abaixo, percebemos que a essência não mudou, a quantidade de investimento na Europa já foi ultrapassada pela China.  Este gráfico, mostra que temos na Europa ainda a ideia de que a investigação deve vir das universidades, porque aí pode sair a custo zero para as empresas. Mas o que isso está a fazer é que a Europa continua a investir muito pouco em R&D e está a ficar cada vez mais atrasada no desenvolvimento industrial.

O investimento europeu global em investigação continua estagnado abaixo dos 2%, quando a meta dos 3% vem sendo apregoada há quase 20 anos. Entretanto fomos ultrapassados pela China.

Mas reparemos agora mais em concreto em Portugal, e voltemos à questão de partida. A razão pela qual não acredito na investigação de um país alicerçada exclusivamente na Universidade é porque a universidade não é uma empresa, e a investigação que uma precisa é diferente da que a outra precisa. A universidade não pode fazer-se apenas de Engenharia ou Design, ou seja Investigação Aplicada, precisa, e muito, de Investigação Fundamental. Ora as empresas não fazem, nem querem saber da investigação fundamental, aquela em que se discute se A deve ser mesmo A, ou se podia ser B. A indústria só quer saber se A dá dinheiro ou não, é indiferente definir A como A ou como B, desde que funcione. Mas ambos os domínios são necessários, pois sem os avanços no aprofundamento dos fundamentos da ciência, a componente aplicada acaba por estagnar.

Investimento em Investigação Aplicada (R&D) por sector na Europa, EUA, China e Rússia. Repare-se como Portugal apresenta quase uma igualdade de investimento entre as Universidades e Empresas, e como isso não é seguido em mais país nenhum, a não ser a Sérvia e Macedónia.

Ora o problema é que Portugal não teve criação de suficiente tecido industrial, e por isso não tem indústria para sustentar a investigação aplicada. Por outro lado, se começarmos a colocar o esforço de toda essa investigação aplicada nas nossas universidades, corremos o risco de cada vez mais nos limitarmos a aplicar a ciência fundamental que as Universidades exteriores criam. Isto foi bastante visível na última abertura de concursos investigação da FCT que deu primazia a projetos não pela componente científica mas pelo seu impacto socioeconómico. E podemos até perceber que não tendo as condições dos outros países, a Universidade deve ajudar, como têm feito e bem as Faculdades e Departamentos de Engenharia e Design, mas têm de haver avanços claros por parte da indústria nacional sem depender das universidades. As universidades podem ser chamadas a contribuir para a ideação e inovação, mas não devem continuar a servir a implementação, como vem acontecendo, por falta de recursos especializados na indústria.

Por outro lado, esta discussão é maior que Portugal, já que ela surge muito colada aos atuais modelos tecnológicos, e Portugal por acordar tão tarde apanhou o barco que encontrou no cais. Ou seja, a Engenharia e o Design assumiram o controlo e o poder, são estas que regulam o grande desenvolvimento mundial tecnológico, e oferecem os maiores avanços técnicos e industriais, mas, e este mas é enorme, elas vivem de todas as restantes ciências, tanto da vida, como sociais, e mesmo das artes. São as inovações na Física, na Biologia, na Psicologia, na Economia, na História ou nas Artes que permitem à Engenharia e Design estarem continuamente a brilhar, pegando no conhecimento em bruto e encontrado formas de o aplicar tornando o conhecimento teórico em práticas úteis à sociedade. Por isso precisamos de Universidades fortes a produzir ciência fundamental e não ciência aplicada. Porque não podemos esquecer que sem uma Universidade forte em ciências e artes fundamentais não só não teremos inovação para alimentar a engenharia e o design, como não conseguiremos criar os melhores recursos humanos que sustentem o desenvolvimento da nossa indústria.


Ligações para os dados usados:
R & D expenditure, EC Europe, 2019
Historical Trends in Federal R&D, 2019

maio 21, 2019

Quando é necessário dizer Não

Há cerca de um mês fui convidado para realizar uma palestra no evento Pint of Science que decorre este ano pela segunda vez em Portugal, em várias cidades, incluindo Aveiro. Aquando do convite fiz alguma pesquisa sobre a organização após o que aceitei participar. Entretanto fui confrontado com o facto do evento, organizado na cidade do Porto, estar a promover palestras que defendem o Reiki como terapêutica de tratamento do cancro (ver programa do Porto e vídeo). Este cenário colocou-me face a um dilema: ir ao evento significaria pactuar com aquilo que se promove nessa palestra; não ir, significava não cumprir com a palavra que tinha dado. Após alguma reflexão e face a nenhuma alteração de programa, apesar dos alertas realizados pela comunidade nacional, decidi cancelar a minha participação. Deixo algumas palavras que sustentam a minha atitude, sabendo que não repararão a minha falta, ainda assim espero que contribuam para uma discussão que é preciso continuar a fazer.


A ciência é um domínio frágil, os seus praticantes operam numa base de humildade permanente face ao conhecimento, aceitando por isso o questionamento constante dos seus princípios. Juntamente com isto, atravessamos toda uma era complexa de enorme e facilitado acesso ao conhecimento que em vez de tornar a sociedade mais informada e capaz de lidar com a ciência, tornou-a mais rude e desconfiada, nomeadamente de toda e qualquer fonte de autoridade. "Se tenho acesso ao conhecimento todo por via da internet, não preciso de especialistas para nada, posso saber o mesmo que eles sabem". "Basta-me umas horas de pesquisa e sei tanto como o meu cardiologista, ou como o meu advogado, ou como o especialista em aquecimento global". No fundo, temos na nossa frente aquilo que os teóricos do pós-modernismo vinham defendendo há décadas: uma sociedade de valores e princípios altamente fragmentada, descrente de qualquer autoridade ou meta-narrativas, vivendo numa realidade líquida em contínua e acelerada mutação.

Tudo isto sendo problemático, não o seria tanto se não fosse usado e abusado por políticos sem escrúpulos. Personagens como Trump, Bolsonaro ou os líderes da extrema-direita europeia tornaram-se populares graças a uma atitude de total desrespeito para com toda e qualquer autoridade instituída. Usam o princípio de que não existem certezas, de que existem cientistas que publicaram um ou outro artigo com reservas como se isso fosse suficiente, ou sequer evidência de algo, para atirar mantos de total descredibilização sobre todos os consensos da Ciência, para a coberto dos mesmos poderem promover as suas próprias agendas ideológicas, mas principalmente económicas.


E ainda assim, poderíamos enquanto membros da comunidade, desejar não nos imiscuir da política, que é um meio complexo, feito de ataques continuados, muitos deles pouco refletidos e menos ainda verdadeiramente sentidos, e que por isso mesmo não valeriam o nosso tempo. Contudo, o problema é grave, porque não se trata apenas de políticos à procura de benefício próprio, estas suas agendas têm impactos brutais sobre a sociedade, e até sobre o próprio planeta. Temos hoje milhares de pais a porem em risco milhares de crianças ao não vacinarem e ao apelarem à não vacinação. Temos milhares de pessoas que se colocam em risco e colocam outros em risco ao apelarem ao não tratamento químico de cancros. Temos milhares de pessoas que defendem que vivemos num planeta “plano”, mas pior, defendendo a inexistência de qualquer aquecimento global, usando a simples ideia de que tudo é questionável, e que a ciência não tem resposta para tudo. Claramente que a ciência não tem resposta, nem pretende ter, para tudo, mas as respostas que tem precisam de ser defendidas, e não colocadas à mercê dos ataques de quem não está minimamente habilitado ou sequer interessado na ciência. Assumir que tudo é igual, e todos têm direito à palavra com o mesmo grau de autoridade, deixou de ser uma condição aceitável, correndo o risco de tudo perdermos.

Temos que promover a ciência, temos de a defender, e isso implica tomar posições que por vezes são difíceis. Neste caso, os organizadores do evento no Porto preferiram o caminho mais fácil, defender as escolhas que tinham feito inicialmente, obrigando a que os investigadores ficassem com a escolha mais difícil, dizer que Não.


Notas Adicionais:
A tomada desta decisão foi feita no âmbito de um diálogo aberto com os organizadores do evento na cidade de Aveiro, que acabaram por compreender e aceitar a minha posição, manifestando a sua impossibilidade de atuação dada a autonomia que cada cidade organizadora do evento detém.

Do meu lado, esclarecer ainda que esta minha posição não deve ser lida como fundamentalismo científico, algo contra o qual tenho manifestado por várias vezes a minha posição, como se pode ver no texto que aqui publiquei no final de abril, "SciMed e a humildade em ciência".


Ler mais:
A Ciência não é Crença, Virtual Illusion
O Reiki funciona?, FFMS
Carta aberta à Pint of Science Portugal, Comunidade Céptica Portuguesa

dezembro 07, 2018

A construção inata das emoções

Lisa Feldman-Barrett tem provocado imensas ondas no campo das ciências da emoção com a sua nova proposta sobre o modo como surgem as emoções. Se no mundo da ciência as suas abordagens vão sendo aceites mas bastante questionadas, dada a natureza de regulação da ciência que favorece a dúvida, no campo mais mediático, da chamada folk science, as suas abordagens têm sido recebido como revolucionárias e de extrema importância. É verdade que Barrett tem um currículo académico que lhe granjeia facilmente autoridade, e por isso a aceitação daquilo que diz como sendo cientificamente demonstrada e logo verdade. Do meu lado, darei aqui conta do ceticismo para com a sua teorização.

Se quiserem um atalho para o livro, leiam o artigo da autora "The theory of constructed emotion: an active inference account of interoception and categorization" (2017) publicado no Social Cognitive and Affective Neuroscience, resume todo o livro.

Barrett apresentou uma TED, escreveu dezenas de artigos e no ano passado lançou o livro “How Emotions Are Made: The Secret Life of the Brain” (2017), tudo para defender aquilo que ela define como uma teoria revolucionária das emoções, a que chamou de "theory of constructed emotion". Nessa teoria diz-nos que a teoria clássica da emoção está completamente errada: que as emoções não são universais, variam entre seres-humanos, e mais, não são inatas. Para Barrett, as emoções são meras construções mentais, simulações que fazemos a partir de experiências passadas. Para sentir uma emoção precisamos de julgar momento a momento para determinar a emoção que sentimos. Estas conclusões de Barrett advém do facto de ter passado as últimas décadas a tentar encontrar a "impressão digital" das emoções e não a ter encontrado. Ou seja, nos estudos que fez com fotografias de faces humanas encontrou demasiada variabilidade nas respostas; nos estudos que fez com a variação corporal e nos estudos que fez com os circuitos neuronais, igual. Barrett diz assim que até hoje não foi possível encontrar no corpo humano o lugar em que a emoção se define, e desse modo ela não existe de forma inata, sendo mera construção mental.

Esta abordagem de Barrett, do meu ponto de vista, enquanto investigador da emoção e cognição, levanta-me imensas dúvidas, algumas a partir de outros autores, outras como reação direta ao que é questionado pela autora, e que passo a elencar:

1 – Expressão Facial e Paul Ekman 
Ekman é um dos mais reputados investigadores de emoção, em especial, da emoção facial. E é também um dos mais atacados por Barrett, porque segundo ela, nas suas replicações experimentais, nunca conseguiu encontrar os mesmos resultados que Ekman. Por sua vez Ekman, respondeu-lhe em 2014, de forma muito direta, com a imensidade de estudos que suportam o seu trabalho e as suas propostas, vale a pena ler. Barrett aceita que a leitura de expressões faciais possa ser demasiado subjectiva, e por isso realizou testes com sensores de variação muscular da cara, a partir dos quais concluiu que continua a existir demasiada variabilidade.

Ora estes estudos levantam-me vários problemas, primeiro porque a avaliação de emoção apenas por meio de uma fotografia é algo que só muito treino pode garantir, pela simples razão de que lhe falta a variabilidade temporal da cara. Uma emoção facial não tem a duração de um momento congelado no tempo, mas no mínimo, a variação da posição neutra até à posição da emoção, e depois o voltar ao neutral novamente. Ora, nós seres humanos estamos apenas dotados de capacidade para ler essa variação, e não instantes captados com máquinas fotográficas. É o mesmo que tentar ver o que acontece numa imagem de um filme quando o filme está em movimento, não conseguimos, temos de usar a tecnologia para parar o movimento. Por isso Ekman defende a necessidade de treinar as pessoas para lerem emoções.

8 pontos de Barrett vs. 152 marcadores usados por Tom Hanks para o filme "Polar Express" (2014)

Mas pior do que isto são os testes com sensores feitos por Barrett. Como vemos na fotografia, está a usar 8 sensores para captar a variação muscular. Mesmo aceitando que são sensores capazes de uma mais alargada sensibilidade, se compararmos com os sistemas de motion capture que temos criado para realizar animação facial com alguma qualidade, as quais recorrem a mais de 150 pontos, soa no mínimo ingénuo a experiência de Barrett. Mas agrava-se, porque se pensarmos que mesmo com esses 150 pontos, continuamos a não conseguir captar toda a essência do movimento da cara, e a ter problemas na representação facial em 3d, o qual é reconhecido como uncanny valley, então ficamos a pensar que falta muito trabalho a Barrett para chegar à identificação das expressões faciais por meios ditos objetivos.

2 – Marcadores somáticos de Damásio
Um segundo aspeto que me parece um pouco tonto na teoria de Barrett, até por ela a apresentar como se fosse algo completamente revolucionário, é que Damásio já tinha defendido que as emoções emergiam a partir de marcadores somáticos, que não são mais do que inferências do passado, preservadas no nosso corpo. Aliás, Barrett é bastante desleal aqui, porque o único lugar em que reconheceu semelhanças com a sua teoria foi numa página wiki de trabalho para o livro, já nos seus artigos e no livro, não existe qualquer menção aos marcadores somáticos. Na wiki, Barrett diz que descarta a teoria de Damásio, porque apesar de semelhante, Damásio defende as emoções como sendo inatas. Ora Damásio, como Ekman, Darwin e tantos outros, só defendem seis emoções como inatas — Alegria, Tristeza, Medo, Raiva, Nojo e Surpresa—, todas as outras Damásio defende como emoções sociais, ou seja construídas culturalmente.

Na verdade a teorização de Damásio é muito mais relevante porque defende os marcadores somáticos presentes no corpo e não apenas na mente como defende Barrett. Para Barrett a emoção é apenas uma resposta mental, enquanto para Damásio é todo um quadro somático do nosso corpo que nos permite sentir o impacto fisiológico da emoção (não esquecer as mais recentes descobertas em torno dos neurónios presentes na medula espinal, no coração, e no intestino.). E aqui agrava-se ainda mais a abordagem de Barrett apresentando-se como defensora do mais básico dualismo mente/corpo, aquele que Damásio procurou desmontar, e desde então tem sido aceite por boa parte da ciência.

Mas Barrett vai mais longe, no livro e na TED, atira à cara das pessoas que estas “não estão à mercê das emoções”, uma vez que essas são meramente criadas pelo cérebro. Que “nós não somos vítimas de circuitos de emoção primitivos e animalescos” porque é o nosso “cérebro que constrói as experiências emocionais, mesmo aquelas fora de controlo”. Ou seja, não só atira as questões inatas como todo o corpo fora. Onde é que na equação de Barrett entram as situações pós-traumáticas e as hormonas da testosterona, da ocitocina, da adrenalina ou da dopamina!?

3 – Emoção e Cognição
No terceiro ponto vejo um problema enorme, que é a total confusão entre cognição e emoção. Barrett usa princípios da Gestalt para definir o modo como se processa a identificação de etiquetas emocionais. Os princípios da Gestalt são operados por lógica, pela busca de padrões que o nosso cérebro opera, mas que se diferenciam imenso das sensações ou emoções que atuam sobre o nosso corpo como um todo. Aliás, Barrett usa e abusa de todas as teorias no campo visual, narrativo, da aprendizagem, assim como da psicologia — tal como a "appraisal theory" — mas nunca cita todo o trabalho feito nessas áreas. No fundo, arranjou uma interpretação sua para algo que diz que não tem explicação na neurociência, e fala dela sem ligar nenhuma a todos os restantes ramos do conhecimento que se têm dedicado a perceber como construímos conhecimento, como compreendemos o real, e como isso se diferencia dos modos como sentimos esse real.

4 – Expressões faciais em invisuais
Apesar de ter deixado este ponto para quarto, é talvez o mais impactante em toda esta teorização de Barrett, porque é uma evidência clara da insustentabilidade da teoria proposta. Ou seja, se as emoções e expressões faciais são respostas mentais construídas, apreendidas no tempo, por via dos pais e cuidadores, então como é que se explica que invisuais de nascença, possam expressar emoções com a cara do mesmo modo que pessoas com sentido de visão? Como é que estas pessoas aprenderam a gerar aquelas emoções? Como é que o seu cérebro sabe o que deve fazer com a cara?

Nestas imagens vemos como as expressões faciais são iguais. Mas algo que é muito interessante no estudo que apresenta estas imagens é que se verificou que os invisuais só apresentam a mesma expressão facial quando estão a sentir a emoção, e não quando lhes pedem para fazer a cara de uma determinada emoção, o que torna ainda mais evidente o facto da emoção ser um processo inato e automático, e não aprendido e consciente.

5 – Emoção como palavra!
Para Barrett só sentimos as emoções para as quais temos palavras. Se não soubermos definir o que sentimos, então não sentimos essa emoção. Aliás, neste mesmo sentido diz-nos que os
animais não sentem medo, que sentem apenas uma espécie de afeto! Ou seja, é preciso ter um sistema mental completo e dotado de expressão e comunicação para sentir! Seguindo esta ideia, uma criança a quem nunca tivesse sido ensinado o que é a tristeza, ou a alegria, ou o medo, poderia viver toda a sua vida sem sentir emoção. Então pergunto porque não temos a nossa espécie cheia de Spocks? Ou pior, porque raio continuam os animais a insistir em sentir emoções?!!!




Seguindo a teoria de Barrett, como podem estes cão sentir algo se ninguém lhes ensinou as palavras que definem as emoções que sentem?!


São tantos os problemas desta teoria, a ponto de ser a própria a aceitar que a sua teoria é apenas uma teoria — "the roles I’ve described for your various brain networks are not objective facts. They are concepts invented by scientists to describe the physical activity within a brain" — e que tem imensos problemas, apresentando vários buracos. No entanto, esta aceitação entra em choque com a sua vontade de estar constantemente a atacar as teorias que aceitam o lado biológico das emoções, e pior, apresentar a sua teoria como verdade absoluta e inquestionável.