Para onde o mundo vai http://paraondeomundovai.blogosfera.uol.com.br Novidades da ciência e tecnologia, trazidas por brasileiros espalhados pelo mundo fazendo pesquisa de ponta Thu, 13 Jun 2019 11:56:44 +0000 pt-BR hourly 1 https://wordpress.org/?v=4.7.2 Na corrida das entregas aéreas, drone do Google sai na frente da Amazon http://paraondeomundovai.blogosfera.uol.com.br/2019/06/13/na-corrida-das-entregas-aereas-drone-do-google-sai-na-frente-da-amazon/ http://paraondeomundovai.blogosfera.uol.com.br/2019/06/13/na-corrida-das-entregas-aereas-drone-do-google-sai-na-frente-da-amazon/#respond Thu, 13 Jun 2019 07:00:03 +0000 http://paraondeomundovai.blogosfera.uol.com.br/?p=619 Por Monica Matsumoto

O serviço de entrega por drones está bem próximo de acontecer. Além de usar os tradicionais vans e carros, a Amazon anunciou em sua conferência re:MARS (EUA) que dentro de poucos meses iniciará a entrega de pacotes por drones para clientes Prime Air.

Ao escolher o produto no site da Amazon, o cliente pode ter seu pedido entregue tão rápido quanto 30 minutos. Acalmando o senso de urgência dos clientes, certamente a Amazon irá conquistar mais consumidores.

Imagine a facilidade de ter em poucos minutos um petisco que faltou do supermercado. Ou comprar um presente de última hora (por exemplo, no dia dos Namorados) e receber antes de sair para o encontro. As possibilidades são vastas.

Figura 1. Lançamento do último modelo de drone de entrega da Amazon. Fonte: Amazon.

Entenda as especificações do drone anunciado pela Amazon:

  • Peso máximo do pacote: 2,2 kg**
  • Distância máxima de vôo: 24 km
  • Tempo máximo de entrega do pacote: 30 minutos
  • Decisão autônoma de abortar o vôo: Drone pode decidir interromper o vôo, retornar à base e não fazer a entrega
  • Pouso: vertical como helicópteros
  • Vôo com 6 graus de liberdade: subir ou descer, rolar para direita ou esquerda, e ir para trás ou para frente
  • Vôo dito eficiente e aerodinâmico como um avião
  • Sensores: combinação de câmeras termais, de profundidade e sonar
  • Visão computacional: métodos avançados de IA para navegação e pouso seguros, especialmente para evitar fios (telefone, energia, varal)
  • Pegada de carbono: uso de baterias elétricas recarregáveis, além de evitar emissão de poluentes por veículos terrestres
  • Local de estréia: ainda não revelado pela Amazon.

(** A carga de 2,2 kg pode parecer pouco, mas a Amazon afirmou que ao menos 75% dos itens comprados estão abaixo deste peso)

A dificuldade não é fazer o drone voar

Desde o primeiro anúncio da Amazon, em dezembro de 2013 até o momento, passaram-se mais de cinco anos. Por que esse projeto demorou tanto para se concretizar?

Cada item descrito acima, traz requerimentos de engenharia ao projeto: bateria elétrica, capacidade de carga, autonomia, sensores… todos com muitos obstáculos de execução. Entretanto, esse não é o maior desafio de fazer um drone voar e entregar um pacote!!!

Por incrível que pareça, o maior desafio vem das exigências dos órgãos reguladores: a certificação da aeronave e o controle do espaço aéreo. Para o bem, deixemos claro.

Veja os exemplos recentes de acidentes com helicópteros em Nova Iorque (NYC). Na semana passada, um helicóptero colidiu com a cobertura de um prédio, e uma pessoa morreu nesse acidente. Outros acidentes com helicóptero em NYC aconteceram por colisão com aeronave, ou pouso forçado no rio Hudson. Isso acontece num espaço aéreo regulado, numa cidade com alta densidade populacional.

Figura 2. Vôo turístico de helicóptero em Nova Iorque. Fonte: Wildluxe.com

Agora, imagine um drone ou muitos deles, fazendo entregas em zonas urbanas. O veículo aéreo drone é bem similar ao helicóptero, porém de menor porte. Existe a chance de colisão com pássaros e aviões, por exemplo. Ou, ainda, existe chance de queda sobre pessoas e animais, em cidades e também no campo. Note que, dentro da regulação atual, o uso de drones comerciais em zonas urbanas é proibido.

Nos Estados Unidos, essas normas de certificação de aeronaves e do espaço aéreo são definidas pelo FAA (Administração Federal de Aviação). Dentre as regulações, os drones não podem circular perto de aeroportos, nem sobrevoar regiões com pessoas ou animais. Os veículos aéreos não podem pousar em veículo em movimento nem ser operados por pessoas neles. Além disso, o drone tem operação limitada a 400 pés de altura (120 metros).

No Brasil, quem regula as certificações é a ANAC (Agência Nacional de Aviação Civil) e o espaço aéreo, o DECEA (Departamento de Controle do Espaço Aéreo). As normas brasileiras para drones seguem o padrão internacional da FAA.

Outro fator crítico, além da circulação de veículos aéreos, é a certificação das aeronaves. Os drones têm que satisfazer uma série de requerimentos de aerodinâmica, controle de falhas, controle de riscos de colisão e queda, que passam por um crivo rigorosíssimo das agências reguladoras.

Um exemplo de ponto fraco para a certificação de drones é que nenhum avião é certificado para colidir com segurança com um objeto metálico (como o drone). E aviões transportam pessoas, e a segurança física delas está em primeiro plano.

Google (Alphabet) está na frente

Apesar de todas as normas acerca dos drones, em abril deste ano foi certificado o primeiro drone de entregas pela FAA. Trata-se do drone Wing, da empresa Alphabet (empresa-mãe do Google). A empresa já pode operar como empresa comercial de aviação e inicia sua primeira operação na zona rural no estado da Virgínia (EUA).

Isso mostra a forte competição na área e também que a Alphabet está agora à frente, desbravando o espaço mais difícil, que é o da regulação.

Assim que a Amazon lançou seu último modelo de drone na semana passada, a FAA anunciou um waiver (dispensa de obrigações) que permite a Amazon testar seu modelo –assim como dezenas de outras empresas tem permissão, porém sem certificação. Entretanto, a Secretária de Transporte Americana (Elaine Chao) já acenou que possíveis mudanças como voar sobre pessoas podem ocorrer para agilizar a inovação nessa área de negócios.

Considerações finais

Não irá demorar muito para os primeiros pacotes serem entregues de forma operacional. Essa facilidade irá impactar o comportamento de consumo, pois a comodidade libera espaço para outras atividades. As tarefas simples terão um atalho, e diminuirá nesse aspecto a necessidade de locomoção.

Não demorará também para o mercado de trabalho sofrer os impactos dessa mudança. Empresas de entrega, serviço de atendimento em lojas e supermercados, entre outros, terão redução de volume e será necessário outro foco de operação.

Todas essas mudanças são inevitáveis. A entrega por veículos aéreos, se for adotada pelo mercado, será apenas um fator a mais para mudanças e futuro do trabalho, sobre o consumo e as adaptações da sociedade cada vez mais digital.

Veja ainda os vídeos do drone da Amazon e Google (Wing):

]]>
0
Conheça o remédio de R$ 8 milhões que tenta corrigir falhas do DNA http://paraondeomundovai.blogosfera.uol.com.br/2019/06/06/remedio-mais-caro-do-mundo-tenta-corrigir-falhas-do-dna/ http://paraondeomundovai.blogosfera.uol.com.br/2019/06/06/remedio-mais-caro-do-mundo-tenta-corrigir-falhas-do-dna/#respond Thu, 06 Jun 2019 07:00:28 +0000 http://paraondeomundovai.blogosfera.uol.com.br/?p=600

Bebê em incubadora neonatal

Agência norte-americana deu  aval ao medicamento Zolgensma para tratar bebês com amiotrofia muscular espinhal (AME).  O remédio –com preço que pode passar de US$ 2 milhões, ou R$ 8 milhões,– é capaz de corrigir gene que leva a casos de AME pediátricas. Quatorze dos 15 bebês que testaram o Zolgensma apresentaram melhoras 

Quanto você pagaria por uma dose de um remédio? E se esse dose única fosse capaz de tratar uma doença normalmente letal em bebês? E se essa dose única fosse capaz de curar completamente essa doença? O FDA (agência norte-americana responsável pela regulamentação de medicamentos) deu, na semana passada, aval ao medicamento Zolgensma para tratar bebês com amiotrofia muscular espinhal (AME). A terapia usa uma dose só. O preço dessa dose pode passar de US$ 2 milhões, ou R$ 8 milhões.

Fragmento Tudor, da proteína SMN

A AME é uma doença degenerativa com causas genéticas. Em pessoas saudáveis, uma proteína chamada SMN regula uma grande variedade de atividades de internas de neurônios motores, neurônios esses que controlam a atividade de músculos. A AME acontece quando uma pessoa tem uma deleção no gene smn1, principal responsável por produzir a proteína SMN dentro das células. Essa deficiência da proteína acaba causando problemas neuro-musculares.

Em adultos e jovens (AME tipos 3 e 4 na tabela abaixo), essa doença pode causar comprometimento da musculatura e problemas de locomoção, afetando a qualidade de vida. Já a versão pediátrica dessa doença (AME tipos 1 e 2 na tabela abaixo) é mais dramática. Bebês que apresentam sintomas da doença entre os seis a 18 meses correm risco de sofrer problemas crônicos respiratórios e musculares por toda a vida, e muitos acabam morrendo antes de atingir a adolescência.

Bebês que apresentam sintomas da doença nos seis primeiros meses de vida, em sua maioria, precisam de suporte de aparelhos para respirar antes de atingir dois anos de idade. Uma quantidade bastante pequena desses bebês chegam aos três anos de vida. Diante desse cenário, um remédio capaz de tratar um caso de AME pediátrica pode ser a diferença entre morrer durante a infância ou levar uma vida plena.

Tabela extraída deste relatório

O recém-autorizado Zolgensma é uma terapia genética que tenta resolver a deficiência do gene smn1. O remédio é um vírus artificial produzido em laboratório (adenovírus AA9) que carrega uma cópia do gene smn1.

A aplicação da terapia acontece através da injeção desse vírus artificial. O Zolgensma injeta cópias do gene smn1 nas células dos neurônios que dele precisam, e a célula passa a produzir a proteína SMN em quantidades suficientes. A versão do gene injetado nas células foi desenhada para ser estável e permanecer lá.

Como neurônios não se reproduzem, o smn1 injetado não precisa ser replicado, ao menos em tese. O resultado é que a deficiência do SMN causada pela deleção do smn1 nativo seria completamente suprida pelo smn1 exógeno do Zolgensma.

Vírus AAV2, “parente” do vírus AA9

O estudo piloto (financiado pela Novartis, que desenvolveu o remédio), analisou o efeito do remédio em 15 pacientes com AME tipo 1. O remédio aparentou eficácia: 14 dos 15 bebês chegaram ao final do estudo de dois anos sem precisar de apoio contínuo de ventilação mecânica, e o décimo quinto paciente foi eventualmente capaz de respirar sem aparelhos. A taxa natural desse tipo de resultado é de apenas 8%. Ganhos significativos e substanciais de função motora e autonomia respiratória também foram observados.

Esses resultados ainda são preliminares, é claro. Mas é impossível não notar que esse medicamento é um marco importante no progresso da engenharia genética como terapia. A única outra terapia genética autorizada na lista do FDA é a Luxturna.

Mas e os US$ 2 milhões? Não é muito dinheiro pra se cobrar por uma vida? Essa questão é complicadíssima.

Primeiramente, o preço em si, sob a perspectiva do preço de oferta, não é completamente absurdo. Desenvolver um remédio é caro: é preciso pagar salários pros pesquisadores, arcar com o custo de equipamentos e insumos utilizados, financiar testes de segurança e eficácia do medicamento, e subsídio de outros remédios fracassados.

Um instituto independente que avalia a razoabilidade de preços de remédios fez um estudo recomendando que o preço mais correto pra esse remédio seria de US$ 1,5 milhão. É menos que o preço sugerido pela Novartis, mas ainda assim bastante alto. Para termos uma outra referência, o Luxturna custa US$ 850 mil. O patamar de preços não está tão desalinhado assim.

Mas para o paciente, essas quantias é ridícula. A renda mediana anual nos EUA é US$ 60 mil. Esse americano levaria 30 anos pra pagar um remédio de US$ 2 milhões se gastasse todo seu salário com a dose única. Um brasileiro que recebe um salário mínimo levaria mais de 600 anos para cobrir essa conta, se não tivesse apoio algum do SUS. Isso aí é um problemão.

Nessa questão, eu gosto de olhar esse tipo de questão sob uma perspectiva diferente. Pra mim, a mera existência desse remédio já é uma conquista enorme e o foco no custo pode acabar sendo um “close errado”.

Sim, o preço do remédio é proibitivo pra muita gente que poderia se beneficiar dele. Mas sem o desenvolvimento, o remédio sequer existiria. Dito de outra forma, o desenvolvimento reduziu o custo do medicamento de “inexistente” para “US$ 2 milhões”. Além disso, com o tempo, o custo do medicamento tende a cair, seja por expiração de patentes ou direitos de exclusividade, seja por negociações entre farmacêuticas, seguradoras ou governos.

Na marcha da história da tecnologia, esses preços absurdos acabam sendo solavancos resolvidos com o tempo –e o que fica é a terapia em si. Nesse caso, uma terapia que pode ser a diferença entre morrer antes dos dois anos ou virar um adulto.

]]>
0
Sem metade da verba, laboratório mais moderno do Brasil está ameaçado http://paraondeomundovai.blogosfera.uol.com.br/2019/05/30/sem-metade-da-verba-laboratorio-mais-moderno-do-brasil-esta-ameacado/ http://paraondeomundovai.blogosfera.uol.com.br/2019/05/30/sem-metade-da-verba-laboratorio-mais-moderno-do-brasil-esta-ameacado/#respond Thu, 30 May 2019 07:00:34 +0000 http://paraondeomundovai.blogosfera.uol.com.br/?p=596

Laboratório Nacional de Luz Síncrotron (LNLS), em Campinas (SP)

Orgulho da comunidade científica brasileira, o Laboratório Nacional de Luz Síncrotron (LNLS) de Campinas (SP) tenta construir o Sirius, o mais moderno acelerador de partículas emissor de radiação síncrotron do mundo. Ele será útil para analisar células de diversos materiais. Mas o projeto recebeu apenas metade da verba de R$ 255 milhões da qual necessitava esse ano

A ciência brasileira vive momentos delicados. Afetada por vários cortes sucessivos nos últimos cinco anos, os institutos de pesquisa do país produzem menos e vêem várias de suas melhores cabeças escaparem para o exterior. No cenário atual de significativo apoio popular à redução indiscriminada de todo e qualquer gasto do governo federal, muita gente se pergunta sobre qual é a real utilidade de se investir dinheiro público em projetos mirabolantes aparentemente distantes do dia-a-dia sofrido do cidadão comum.

Gostaria de “jogar uma luz” num caso emblemático dessa questão: o Laboratório Nacional de Luz Síncrotron (LNLS), causa de imenso orgulho e apreensão na comunidade científica e de expressões confusas nas demais pessoas. Ao custo de R$ 1,8 bilhões por oito anos (aproximadamente um estádio de Copa do Mundo), o país se propôs em 2013 a construir o Sirius, o mais moderno acelerador de partículas emissor de radiação síncrotron do mundo.

Com suas primeiras etapas concluídas às duras penas, o Sirius sofre para se manter no momento em que as operações tentam se iniciar, pondo em risco várias pesquisas de ponta que elevariam o patamar da ciência brasileira em diversas áreas da tecnologia e da saúde.

O que é luz síncrotron?

Quando os primeiros aceleradores de partículas foram construídos, um dos problemas a serem contornados era a perda de energia na forma de radiação (luz) causada pelo movimento circular dessas partículas pelos poderosos campos magnéticos que as aceleravam.

Com o tempo se percebeu que tais aceleradores de partículas, que conseguem acelerar elétrons a velocidades próximas à da luz, poderiam ser adaptados para justamente emitir altíssimas intensidades de radiação num espectro contínuo, desde os raios X, passando pelo ultravioleta e o espectro visível até o infravermelho. Utilizando campos magnéticos adicionais para fazer com que esses elétrons acelerados percorram um verdadeiro zigue-zague dentro de um trecho do acelerador, os aceleradores de luz síncrotron conseguem criar feixes ultrabrilhantes de radiação em frequências específicas que podem ser desviados e incididos sobre amostras de diferentes materiais.

E para que isso serve?

Assim como fazemos para ver com nossos próprios olhos, quando tentamos “enxergar” estruturas no nível atômico nós também precisamos iluminar essas amostras e captamos a luz que elas nos retornam. E quanto mais luz, mais detalhada a imagem. Porém, o comprimento de onda da luz utilizada deve corresponder aos detalhes que tentamos enxergar.

Assim, raios X curtos são utilizados para enxergar átomos, enquanto raios X mais longos e ultravioletas são apropriados para se estudar reações químicas. Já a radiação infravermelha pode ser usada para se estudar vibrações atômicas em moléculas e sólidos. Essas são algumas técnicas utilizadas:

Difração de raios X: os raios X colidem com os átomos de uma amostra e são espalhados, permitindo aos cientistas estudarem esse espalhamento e deduzirem a estrutura atômica da amostra. É útil para se determinar a estrutura de minerais, cerâmicas, proteínas, componentes celulares, polímeros e demais materiais complexos.

Espectroscopia: várias frequências de radiação são incididas numa amostra, e a absorção –reflexão e fluorescência nessas frequências– nos dão informações sobre a composição química dessas amostras. É especialmente útil na análise de amostras biomédicas e no desenvolvimento de materiais.

Microscopia: permite técnicas semelhante a um raio X de hospital, mas com altíssima definição e calibrada para “enxergar” elementos específicos.

Sobre o Sirius

O Sírius é a maior e mais complexa infraestrutura de pesquisa já construída no país, e foi projetado para ter o maior brilho dentre todos os equipamentos de sua classe no mundo. O novo laboratório está sendo construído com verbas do Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC) e da Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP), e conta com várias parcerias com a indústria nacional.

A WEG, empresa de equipamentos elétricos sediada em Santa Catarina, fabricou os milhares de eletroímãs; a Termomecânica, de São Paulo, construiu as câmaras de vácuo do anel de armazenamento; e diversas outras empresas contribuíram para o desenvolvimento de toda a tecnologia necessária. A primeira etapa foi concluída em novembro passado, já com dois dos três aceleradores prontos. O terceiro acelerador está previsto para o segundo semestre desse ano, o que possibilitará o início das pesquisas.

A construção de um equipamento desse porte possibilita a realização de várias pesquisas de ponta mundo afora que não são possíveis com os modelos de síncrotron obsoletos e que estavam à espera dessa nova tecnologia. E não são poucas. Em certas frequências, o brilho da luz emitida pelo Sirius pode ser mais de um bilhão de vezes superior ao equipamento atual, o UVX.

Isso pode permitir a análise de detalhes no interior de amostras, por exemplo, e não apenas em sua superfície. A análise de amostras de solo permite o desenvolvimento de fertilizantes mais eficientes. A análise de rochas auxilia a exploração de petróleo. Na área da tecnologia, há pesquisas desenvolvendo células solares, baterias e novos materiais. Na área da saúde, podemos identificar a estrutura de proteínas e determinar detalhes complexos do interior da célula, auxiliando a descoberta de novos medicamentos. Há diversas aplicações na biotecnologia e nanotecnologia.

Perigo

Porém, infelizmente, projetos ambiciosos como esse dependem de financiamento estável de longo prazo. Um congelamento de 80% da verba de infraestrutura do MCTIC anunciado em março afeta o Sirius diretamente. O Sirius recebeu apenas metade da verba de R$ 255 milhões da qual necessitava esse ano.

A ausência de verbas para pesquisa ameaça a perda de todo o pessoal qualificado que foi atraído para a empreitada. O diretor Antonio Roque da Silva diz que “temos gente que constantemente recebe ofertas de laboratórios no exterior, e a perda desse pessoal é o maior risco para o projeto”.

O caráter colaborativo e altamente qualificado da pesquisa científica depende da lenta construção de pólos de excelência como o LNLS, e o desmonte de instituições de renome não pode ser rapidamente reposto pela próxima aventura de um governante com dinheiro em caixa. Para desenvolvermos tecnologia de ponta, precisamos enfrentar recessões e aprender a pensar no longo prazo.

]]>
0
Método inovador que traduz pensamentos nos aproxima da prótese cerebral http://paraondeomundovai.blogosfera.uol.com.br/2019/05/16/metodo-inovador-que-traduz-pensamentos-nos-aproxima-da-protese-cerebral/ http://paraondeomundovai.blogosfera.uol.com.br/2019/05/16/metodo-inovador-que-traduz-pensamentos-nos-aproxima-da-protese-cerebral/#respond Thu, 16 May 2019 07:00:25 +0000 http://paraondeomundovai.blogosfera.uol.com.br/?p=584 Pesquisadores da Universidade da Califórnia São Francisco (UCSF) e Berkeley foram capazes de decodificar os sinais do cérebro em estímulos precisos nos músculos que articulam a voz. Essa pode ser a ponte para a recuperação da fala

em algumas doenças neuromusculares! Os cientistas Gopala Anumanchipalli, Josh Chartier e Edward Chang publicaram em artigo recente na revista Nature o método pioneiro nessa tradução cérebro-máquina-voz.

Para pessoas com comprometimento motor, é bem importante melhorar essas limitações neurológicas. Tarefas como responder a perguntas simples, se locomover ou acionar uma prótese podem ter o auxílio da máquina. Esse é o campo de pesquisa da interface homem-máquina. A interface nada mais é do que um tradutor. No exemplo da prótese, imagine o caso de um soldado que perdeu totalmente um braço em campo de batalha. A prótese de braço responde a comandos, que podem vir de um músculo como o peitoral, ou sinais elétricos vindos diretamente do cérebro. Esses sinais são interpretados computacionalmente, e traduzidos em um sinal de estímulo na prótese. Dessa maneira, um braço artificial pode efetivamente ser controlado e essa prótese irá desempenhar as funções de um braço para esse soldado.

Figura 1: Desenho esquemático de interface homem máquina. Adaptado de Schalk.org

O controle da voz, entretanto, é ainda um sonho para pessoas com doenças motoras limitantes graves como a síndrome do encarceramento, esclerose lateral amiotrófica avançada, derrame tronco cerebral, ou ainda com perda total de controle muscular como pacientes com paralisia cerebral grave. Com essa interface cérebro-máquina-voz, essas pessoas poderiam eventualmente ter alguma função vocal recuperada.

A vocalização é uma tarefa extremamente complexa e envolve um conjunto de mais de 100 músculos entre os da laringe, lábios, língua e mandíbula, sem contar o diafragma que controla o ar. A posição da língua, a articulação dos lábios, o controle das cordas vocais são exemplos de acionamentos para a fala. São movimentos finos dos músculos que geram as palavras, fonemas e encadeamento da voz. Apesar de parecer uma atividade fácil, a fala é uma ação muito difícil.

A novidade deste estudo é que os cientistas traduziram os sinais elétricos em dois estágios: um para o conjunto de músculos vocais e o outro para o som da fala em si. Nesse novo procedimento, o estágio intermediário do conjunto de vocalização promoveu uma melhora do resultado final, que é o sinal de fala.

Aquisição de sinais, inteligência artificial e som

Neste estudo, os cientistas analisaram os sinais do cérebro durante a vocalização. Esses sinais eram provenientes de um equipamento com alta densidade de eletrodos, implantados invasivamente em pacientes com epilepsia. Os pacientes leram mais de 400 frases padronizadas durante o experimento. E os cientistas também aproveitaram os dados de um banco de dados denominado MNGU0, que descreve todo o movimento dos lábios, laringe, língua e mandíbula com diversos sensores. É a informação mais complexa dos músculos que articulam a voz.

Uma das sacadas foi usar uma rede neural apropriada para as sentenças, que é uma fala ao longo do tempo. Chamada de rede neural recorrente, essa técnica de inteligência artificial se mostrou robusta para os dados da proposta. Com a rede neural, o processamento de frases desses pacientes traduziu bem a complexidade da articulação vocal.

A tradução dos dados articulatórios para a fala em si também foi bem sucedida, e a fala sintetizada a partir dos movimentos foi bem entendida por ouvintes que participaram do último teste de compreensão.

Figura 2: Interface homem máquina para reprodução de voz. Fonte: Nature News.

O futuro é a neuroprótese

Esse trabalho foi o primeiro a propor uma fase intermediária de tradução neuro-máquina-voz, que representa o complexo conjunto de músculos do aparelho vocal.

Anteriormente, estudos como o de Niels na revista Psychophysiology foram extremamente bem sucedidos para traduzir numa interface homem máquina os sinais sinápticos em fala. A desvantagem é que essa tradução só pode ser usada com uma prótese computadorizada de fala, que emite um som sintetizado. Enquanto que, no trabalho de Anumanchipalli, a prótese pode ser o estímulo neuromuscular, ou seja, o paciente usar seu próprio aparelho vocal para falar. Isso é bastante importante na recuperação da função da fala e na interação social.

Assim, para pacientes com a função muscular preservada, e limitações de neurotransmissão, é possível vislumbrar uma ponte para a fala. A neuroprótese pode ser um caminho real!

]]>
0
Existe uma versão segura do amianto? Não estou convencido, eis a razão http://paraondeomundovai.blogosfera.uol.com.br/2019/05/09/existe-uma-versao-segura-do-amianto-nao-estou-convencido-eis-a-razao/ http://paraondeomundovai.blogosfera.uol.com.br/2019/05/09/existe-uma-versao-segura-do-amianto-nao-estou-convencido-eis-a-razao/#respond Thu, 09 May 2019 07:00:38 +0000 http://paraondeomundovai.blogosfera.uol.com.br/?p=579

Mina de amianto

A Sama, uma mineradora brasileira, é dona da maior mina de amianto brasileira, no município de Minaçu (GO). As operações de mineração estão paradas por conta de decisões judiciais proibindo sua mineração. O caso ganhou destaque com a visita de políticos goianos à mineradora, numa aparente tentativa de facilitar a liberação de suas atividades por meio de pressão política.

O amianto é um material com propriedades estruturais bastante úteis pra construção civil. É um mineral fibroso, com propriedades boas de dureza, isolamento térmico, tolerante a altas temperaturas e capaz de resistir a ataques químicos.

O amianto também é extremamente versátil, por conta do arranjo fibroso. Vários produtos como caixas d’água, telhas, dutos, forração pra construção civil e para veículos são feitos com amianto. Seu uso data desde a antiguidade, quando há relatos de tecidos à prova de fogo feitos com as fibras de amianto! É um material formidável, não fosse pelos problemas de saúde que ele causa.

Foi ao longo do século passado que descobriu-se que o amianto é responsável por doenças respiratórias gravíssimas. Há relatos de uma delas, a asbestose, em operários e mineradores já no início do século XIX e ao menos um estudo dos anos 40 atribuindo ao amianto câncer de pulmão em operários que lidavam com o material. A literatura científica foi se acumulando e demonstrando cabalmente que o amianto, ou mais especificamente seu pó, é responsável por asbestose, câncer de pulmão e mesotelioma (um tipo de câncer). Mais de 80% de todos os casos de mesotelioma, aliás, decorrem de dano pulmonar causado por amianto, de acordo com esse estudo epidemiológico!

Com as descobertas, vieram as proibições. A Islândia foi a pioneira em 1983 e, hoje em dia, seu uso é banido em toda a União Europeia. Os Estados Unidos iniciaram a regulação em 1973 e chegaram a banir todo uso de amianto em 1989. Por questões constitucionais, a proibição do amianto foi revogada pela Justiça americana, mas o fato de que o amianto causa doenças é tão consagrado que o uso de amianto por qualquer empresa cria um risco financeiro enorme.

Há, inclusive, tratativas para restringir o uso de amianto no comércio internacional, usando a Convenção de Roterdã sobre elementos tóxicos. Os gráficos abaixo, extraídos de um estudo do governo americano, dão uma noção do nível de redução no uso do amianto. Atente que houve até mudança de escalas entre o primeiro e o segundo gráfico –antes considera 2.500 casos como nível máximo, depois isso cai para 700– tamanha a redução no uso após a regulação no mundo.

Casos de consumo de amianto em diversos países, ao longo dos períodos de 1920 a 1990, e de 1995 a 2003

Como então, diante de tamanha evidência da toxicidade do amianto, países como a Rússia e os políticos que visitaram Goiás insistem em remover barreiras à exploração comercial do material? A motivação mais cínica é evidente: o amianto é extremamente útil e a atividade de mineração movimenta uma quantia enorme do comércio. Mas mesmo o maior cinismo precisa de algum embasamento científico, ainda que controverso.

O amianto pode ter duas formas distintas: o crisotila (ou serpentina) e o anfíbola. Alguns pesquisadores creem que o amianto crisotila é seguro e que o risco à saúde é específico ao amianto anfíbola. A divergência vem do modelo molecular da patologia. Parte do processo patológico nas doenças causadas pelo amianto vem da forma como os macrófagos no pulmão (células humanas que fazem “faxina”) interagem com a poeira dessa fibra mineral.

Devido às propriedades do amianto, os macrófagos são incapazes de eliminá-lo e, como resposta, geram um processo inflamatório que causa estresse oxidativo e, conseqüentemente, mesotelioma e asbestose. De acordo com os defensores modernos do uso de amianto, esse processo é atenuado com o tipo crisotila. Essa afirmação é bastante controversa (se minha opinião interessa ao leitor, eu não fui convencido de que o crisotila é seguro). O próprio artigo citado acima foi contestado contundentemente por outro artigo.

Uma outra fonte de confusão vem do fato de que a imensa maioria de nós cresceu rodeado de amianto. Como é possível que o amianto seja tão danoso se gerações de pessoas até bebem água de caixa d’água de amianto? O que acontece é que o amianto após processado é, de fato, seguro. São as fibras soltas dele que, ao serem inaladas, causam dano ao pulmão. É por isso que uma parede com forro de amianto não causa risco nenhum a um residente, mas uma reforma de uma parede com esse material põe um pedreiro em uma situação de risco enorme!

E é por isso que, dentre as atividades que põe os trabalhadores em risco, a mineração é a que tem potencial mais alto para a saúde. É por isso que, na opinião desse autor, é preciso manter a proibição ao amianto, mesmo sabendo da perda econômica sofrida pela comunidade e das empresas interessadas na exploração.

]]>
0
Malandragem: como cientistas manipulam a estatística em suas pesquisas http://paraondeomundovai.blogosfera.uol.com.br/2019/04/24/malandragem-como-cientistas-manipulam-a-estatistica-em-suas-pesquisas/ http://paraondeomundovai.blogosfera.uol.com.br/2019/04/24/malandragem-como-cientistas-manipulam-a-estatistica-em-suas-pesquisas/#respond Wed, 24 Apr 2019 18:35:29 +0000 http://paraondeomundovai.blogosfera.uol.com.br/?p=571

Temos visto vários ataques à ciência. Entre os vários motivos pelo qual isso acontece, mudanças constantes de resultados de pesquisa científica acabam causando ceticismo entre o público leigo, principalmente quando a pesquisa influencia decisões pessoais ou governamentais.

Comer ovo faz bem ou faz mal? Beber uma taça de vinho por dia é salutar ou danoso para a expectativa de vida? Um caso emblemático foi a recomendação da aspirina diária que, hoje em dia, é considerada potencialmente danosa. É natural que uma pessoa conclua que, haja vista tamanha inconstância, a ciência não seja mais que um palpite.

A constante revisão de resultados anteriores, porém, é um resultado intencional da comunidade. Cientistas costumam replicar, refinar, aprimorar os estudos e é nesse processo que as mudanças de conclusões acontece.

Cientistas, inclusive, costumam revisitar não somente resultados, mas também métodos utilizados. Recentemente, a revista The American Statistician, publicada pela Associação Americana de Estatística, dedicou um exemplar inteiro revisitando a forma como cientistas utilizam ferramentas estatísticas em pesquisas científicas.

A crítica é focada no fato de que cientistas, às vezes, são capazes de produzir conclusões errôneas por utilizar essas ferramentas sem compreensão adequada, ou de forma antiética. As sugestões apontadas podem, portanto, afetar profundamente a forma como pesquisadores interpretam dados e aumentar a qualidade e robustez de novos estudos científicos.

Significância estatística

Um estudo científico quer responder perguntas, e para isso, mede ou observa um fenômeno para obter uma conclusão. Para formar uma boa observação científica e evitar conclusões espúrias, cientistas repetem diversas vezes o experimento ou observação sobre o fenômeno estudado e acumulam medições.

Mas por causa do número enorme de dados, isso não é fácil de manipular mentalmente. Para poder fazer uma análise útil, cientistas buscam aglutinar todos os dados coletados a um número menor de dados de fácil uso. Para isso, cientistas podem utilizar métodos estatísticos.

Para ilustrar o processo, eu vou usar um exemplo retirado de um artigo meu, estudando “impedância” em circuitos biológicos. Na figura abaixo, eu busquei comparar o comportamento de dois sistemas diferentes: um ilustrado pela curva preta e outro pela curva vermelha. Cada curva representa uma extrapolação de nove pontos, e cada um desses pontos foi obtido a partir de três observações distintas. A posição de cada ponto é a média das três observações. Cada ponto tem também uma margem de incerteza indicada pela barra vertical. Essa barra vertical também é conhecida como “intervalo de confiança.”

Olhando para o gráfico, podemos dizer que a curva vermelha e a curva preta são muito semelhantes nos quatro pontos à esquerda e nos três pontos à direita, uma vez que os intervalos de confiança se cruzam. Já os dois pontos do meio são diferentes, uma vez que os intervalos de confiança estão bem separados.

Um cientista diria que, nessa região do meio, as duas curvas são estatisticamente diferentes (diferença estatisticamente significante), enquanto nas outras regiões as duas curvas são estatisticamente iguais (diferença estatisticamente insignificante).

Uma outra forma de medir a significância em um estudo é o uso de testes estatísticos –justamente o alvo da discussão corrente. Esses testes tentam avaliar a probabilidade de que uma observação acontece por conta de uma hipótese específica ou se é produto de ruído puro (hipótese nula).

Por exemplo: vamos supor que um cientista notou que, depois de uma chuva, a grama em seu jardim cresceu. O cientista formulou então a hipótese de que a chuva causou o crescimento da grama.

Para testar a hipótese, o cientista observou que ao longo de um ano, todas as chuvas cauaram o crescimento da grama e assim concluiu que sua hipótese estava correta. Mas o cientista não foi diligente o suficiente para anotar o que acontece depois que não chove. É possível que a grama esteja crescendo todos os dias! Nesse caso, a hipótese nula é que a grama cresce, mas não por causa da chuva.

O valor de p

Testes estatísticos, como o teste de Fisher ou o teste t de Student, costumam produzir um coeficiente que indica a significância da hipótese em relação à hipótese nula, em vista dos dados. O limite estatístico é conhecido na literatura como valor de p (p-value).

Por exemplo, o cientista acima, depois de coletar dados sobre o efeito da grama na chuva, pode fazer um teste estatístico e comparar o coeficiente obtido (valor de p) com um limite (0.05, 0.005) para descobrir se o efeito da chuva na grama é significante (p< 0.05, p< 0.005).

Esses testes, porém, são vulneráveis a manipulação. Um exemplo de malandragem é o p-hacking, uma situação em que um pesquisador levanta um número enorme de dados, faz testes estatísticos para encontrar distinções estatisticamente significantes e formula uma hipótese a partir desse resultado.

O p-hacking é ruim, pois ele acaba invertendo a lógica da relação entre hipótese e teste e, dessa forma, acaba por exagerar a causalidade. O que é pior: o p-hacking acidental pode ocorrer mesmo sem malícia por parte do pesquisador se ele não entender conceitualmente como o teste estatístico, a hipótese e as observações estão relacionadas!

Um outro problema do uso do valor de p é que ele foca na distinção entre a hipótese proposta, dado o conjunto de observações, e só. Um resultado de insignificância não nega a hipótese, pois é possível que o problema seja na qualidade das medições.

Usando o exemplo da grama, vamos supor que a grama cresça 1 cm em dias com chuva, e 0,5 cm em dias que não chove. Se o nosso amigo cientista-jardineiro usar uma régua em uma escala de centímetros, o teste estatístico não vai mostrar significância, mesmo sendo a chuva responsável por dobrar a o crescimento!

Por outro lado, o valor de p não diz o quão importante a hipótese é. Vamos supor que a grama cresça 1 cm em dias com chuva e 0,99 cm em dias sem chuva, precisamente. O nosso amigo cientista-jardineiro, com um paquímetro e cuidado, vai obter um valor de p bem pequeno. Mas essa diferença de 0,01 cm importa? Não há teste estatístico que possa responder essa pergunta.

A direção sugerida pelos editores da publicação é a que pesquisadores compreendam melhor o que os testes dizem e o que o eles não dizem, e sejam mais cuidadosos no desenho de experimentos e no tratamento de dados, que sejam transparentes na publicação de resultados e que sejam tolerantes a resultados inesperados.

Essas sugestões são extremamente bem vindas. Nesses tempos em que a politização e polarização desafiam a credibilidade de cientistas e da ciência como um todo, o aumento da qualidade do desenho experimental, o uso responsável de ferramentas de análise e a maior transparência na divulgação de pesquisas melhorariam a robustez dos resultados.

]]>
0
Por que mamíferos não conseguiam ver infravermelho… até agora http://paraondeomundovai.blogosfera.uol.com.br/2019/04/18/por-que-mamiferos-nao-conseguiam-ver-infravermelho-ate-agora/ http://paraondeomundovai.blogosfera.uol.com.br/2019/04/18/por-que-mamiferos-nao-conseguiam-ver-infravermelho-ate-agora/#respond Thu, 18 Apr 2019 07:00:26 +0000 http://paraondeomundovai.blogosfera.uol.com.br/?p=542 Em laboratório, cientistas injetaram nanopartículas nos olhos de ratos, que mostraram sensibilidade ao espectro infravermelho de cores após testes.

Nós, humanos, assim como muitos mamíferos, enxergamos luz apenas nas cores do arco-íris (entre o violeta e o vermelho).  Mais precisamente, nossos olhos e cérebro conseguem somente decifrar em imagem luz com comprimentos de onda nesse intervalo “visível”. Cientistas do laboratório Tian Xue reportaram recentemente que é possível aumentar essa faixa para além do vermelho, e isso foi publicado neste artigo da Revista Cell.

Neste experimento bem sucedido, ratos passaram a enxergar luz infravermelha através da injeção de nanopartículas.

A luz infravermelha é usada principalmente para visão noturna. Hoje, já é possível ter esse tipo de visão com binóculos especiais.

Os binóculos e a imagem vista por ele aparecem na figura abaixo (a luz infravermelha é vista em diferentes intensidades de verde).

Figura 1: Imagem de binóculo sensível a infravermelho e exemplo de imagem obtida. Fonte: Sagem (esquerda)/Departamento de Defesa dos EUA (direita)

Isso só foi possível porque os cientistas usaram conversores capazes de traduzir essa onda em sinal de energia reconhecido pelos fotorreceptores da retina dos ratos. É como se a sensação de visão infravermelho (infravermelho próximo) fosse ativada neles.

Eles usaram, na verdade, nanopartículas que se conectaram aos fotorreceptores e atuaram como nanoantenas. Essas antenas modificam o sistema. Agem como um conversor de energia em miniatura, ou seja, transformam as ondas mais longas, em ondas menores, que se tornam visíveis.

A ideia para esse experimento veio de outro campo da ciência, a optogenética, que possibilitou o estudo de muitas funções do cérebro ao ativar ou nocautear algumas funções moleculares usando laser.

Os mamíferos têm visão limitada a ondas com comprimento de 400 nanômetros a 700 nanômetros. Isso ocorre porque as proteínas que iniciam a tradução da luz em neurotransmissão nos fotorreceptores, chamadas de opsinas, operam apenas nesses comprimentos de onda.

Outros animais conseguem visualizar fora da faixa dos mamíferos. Abelhas e formigas conseguem ver ultravioleta e alguns peixes como o salmão e anfíbios enxergam em infravermelho próximo.

O experimento, entretanto, é o primeiro a comprovar que isso é possível entre mamíferos.

Figura 2: Espectro eletromagnético. Imagem disponível em UC Davis ChemWiki, CC-BY-NC-SA 3.0

 

Para comprovar os efeitos funcionais dos nanorreceptores, os cientistas fizeram uma série de experimentos fisiológicos e comportamentais. Veja abaixo os testes de 1 a 5:

  • Teste 1: Quando somos expostos à luz, a resposta natural é a íris se contrair e a pupila diminuir. O teste chamado de reflexo pupilar à luz mostrou que os animais responderam a certa intensidade de luz infravermelha com redução da pupila.
  • Teste 2: Nos próprios fotorreceptores, também foram feitos testes de eletrorretinograma (ERGs) e de potencial visual evocado (VEP) por ativação de luz infravermelha.
  • Teste 3: Ratos gostam de locais escuros, onde podem se esconder. Um dos testes comportamentais iluminou os ratos com luz infravermelha. Aqueles animais sensíveis a esse tipo de luz logo se esconderam em uma caixa, enquanto os animais de controle foram indiferentes a esta exposição.
  • Teste 4: Os animais também responderam positivamente à associação da luz com o reflexo condicionado de perigo, quando receberam pequenos choques concomitante com um display de luz NIR.
  • Teste 5: Em outro teste comportamental, os animais foram apresentados a padrões de imagens (triângulo e círculo) e recompensas foram associados a estes padrões. A comparação com animais de controle mostrou claramente a ativação da luz infravermelha.

Não se sabe exatamente como os ratos veem essas imagens. Mas, com todos esses testes, foi mostrado que a visão deles foi sensibilizada para a luz infravermelha, inclusive com formato de imagens diferentes. O mais interessante é que este novo “poder” destes mamíferos não afetou a visão regular diurna. Não houve efeitos colaterais na visão normal!

As nanopartículas são introduzidas por injeções sub-retinais. Com essas novas possibilidades abertas, existe muito interesse em usar essa tecnologia em humanos ou outros mamíferos, com aplicações até militares. Possivelmente, quando essa nova tecnologia for aprimorada, os binóculos de visão noturna não serão mais necessários!

Figura 3: Injeção sub-retinal de nanopartículas para sensibilizar a visão infravermelha. Fonte: Cell.

Veja também

]]>
0
Relógios atômicos e 500 kg de dados: como o buraco negro foi fotografado? http://paraondeomundovai.blogosfera.uol.com.br/2019/04/15/relogios-atomicos-e-500-kg-de-dados-como-o-buraco-negro-foi-fotografado/ http://paraondeomundovai.blogosfera.uol.com.br/2019/04/15/relogios-atomicos-e-500-kg-de-dados-como-o-buraco-negro-foi-fotografado/#respond Mon, 15 Apr 2019 17:07:53 +0000 http://paraondeomundovai.blogosfera.uol.com.br/?p=551

Poucos sabem dos desafios para se obter a primeira imagem real de um buraco negro, a milhões de anos-luz da Terra e capaz de sugar até a luz. Passou por combinação de telescópios e ajuste de relógios atômicos até o transporte de quilos de discos rígidos

Nesses últimos dias temos sido bombardeados pela imagem desfocada de um anel amarelado: a primeira foto de um buraco negro. Entre os entusiastas da astronomia, foi uma explosão de alegria. A imagem era esperada com ansiedade, e muito se discutia sobre que forma ela teria.

Já nós, leigos, mais uma vez tivemos que forçar nossas cabecinhas a tentar compreender a relatividade geral e os milhões de anos-luz envolvidos naquele anel. Como foi possível fotografar algo tão distante que não deixa escapar luz nenhuma?

No final das contas, mais do que pôr uma face ao mais elusivo objeto celestial, o grande resultado dessa empreitada foi a prova de que novos métodos computacionais sofisticados agora permitem nossos telescópios a enxergar ainda mais longe, permitindo novas descobertas.

De Einstein a Hawking

Buracos negros, um século atrás, eram apenas estranhezas previstas pelas recém-formuladas equações de Einstein sobre a relatividade geral. Segundo essas equações, objetos de grande massa “dobram” o espaço-tempo e criam o que entendemos por gravidade.

Assim, a trajetória da Terra ao redor do Sol, por exemplo, é uma “reta” num espaço curvado pela massa de nossa estrela. Mas essas mesmas equações também previam que pontos de massa muito grande não deixariam escapar nem mesmo a luz, e tudo o que se aproximasse demais desse objeto, cruzando um certo “horizonte de eventos”, estaria perdido para sempre.

A ideia, obviamente, demorou para ser aceita. Ao princípio nem o próprio Einstein acreditava neles, mas com o tempo buracos negros começaram a ser estudados de maneira mais séria por vários cientistas, entre eles Stephen Hawking.

Hoje em dia, com as equações da relatividade geral mais que confirmadas, a existência desses corpos celestes densíssimos já era dada como certa, e seus efeitos já haviam sido notados em estrelas que orbitavam um certo ponto escuro em velocidades alucinantes. Mas buracos negros propriamente ditos ainda não haviam sido diretamente observados.


Estrelas orbitando um buraco negro.

Felizmente, apesar de negros, esses buracos estão rodeados de luz. Isso porque a matéria gravitando ao redor de um buraco negro é acelerada a velocidades próximas à da luz, e assim se aquece e emite radiação. Parte dessa luz cai para dentro do buraco, mas parte dela escapa e pode ser observada na forma de um anel ao redor de um corpo escuro.

Uma antena do tamanho da Terra

O buraco negro fotografado, na galáxia Messier 87, tem o tamanho (o raio do horizonte de eventos) de nosso sistema solar e pesa bilhões de vezes mais que o Sol. Ainda assim, a 55 milhões de anos-luz da Terra, estava muito longe para ser detectado diretamente.

Há um limite fundamental na capacidade de resolver objetos a grandes distâncias. Basicamente, quanto menor o objeto, maior deve ser o tamanho da antena que capta a radiação proveniente desse objeto. E enxergar o buraco negro exige uma resolução equivalente à necessária para observar uma laranja na superfície da Lua.

Fazendo as contas: para as frequências de rádio, ideais para observar o buraco negro, seria necessária uma antena do tamanho da própria Terra. E foi mais ou menos isso o que foi feito.


Comparação do tamanho do buraco negro com um pixel obtido pelo telescópio Hubble.

Obviamente, não dispomos de uma antena tão grande. Mas dispomos de várias antenas menores espalhadas pela Terra, capazes de captar um ponto da imagem que seria captada pela antena gigante. Além disso, a Terra gira e se movimenta pelo espaço, então cada uma dessas antenas na realidade pode captar uma linha da imagem. Assim, coordenando várias antenas podemos obter várias dessas linhas e tentar reconstruir a imagem total.

E não foi tarefa fácil.

Relógios atômicos foram utilizados para sincronizar telescópios do Pólo Norte ao Pólo Sul, pois as imagens dependem de pequenas diferenças entre os sinais captados por cada antena.

Os telescópios estiveram todos apontados ao centro da galáxia M87 por dez dias, gerando uma quantidade astronômica de dados. Muito dado para ser transmitido pela internet. Os cientistas tiveram que esperar o verão do hemisfério sul para, depois do degelo, trazer quase 500 kg de discos rígidos de um telescópio da Antártica.

Esses dados foram espalhados por vários grupos de cientistas ao redor do mundo, e parte do desafio tecnológico foi coordenar os vários clusters –termo técnico para definir combinações de vários computadores trabalhando como se fossem um só– necessários para processar toda essa informação.

Telescópios formados por antenas de rádio usados na detecção do buraco negro.

Um algoritmo para unir tudo

Muitos times de astrônomos, físicos e engenheiros foram necessários para implementar esse grande telescópio virtual, o Event Horizon Telescope, idealizado por Sheperd Doeleman, do Centro de Astrofísica Harvard-Smithsonian.

A parte mais inovadora do projeto foi o desenvolvimento de um algoritmo sofisticado para a reconstrução da imagem total do buraco negro baseada nos vários pedacinhos fornecidos pelos telescópios individuais, que catapultou à fama Katie Bouman, uma das líderes do projeto.

Esse algoritmo, treinado em várias imagens de todos os tipos, é capaz de distinguir certas características gerais de imagens fotográficas. Alimentado por fragmentos da imagem total, ele consegue preencher os espaços vazios baseado nessas características, ligando os pontos até formar uma imagem coerente.

Importantemente, esse algoritmo não se baseia em nenhuma suposição sobre a aparência de um buraco negro. Poderia ser qualquer coisa.

A imagem completa captada pelo EHT, com o buraco negro ao centro.

Mas eis que depois de dois anos de análises de dados surge o esperado anel.

No final das contas, as equações da relatividade geral não só explicam nossa realidade mais tangível, mas também nos permitem entender fenômenos em escalas inimagináveis, funcionando até a beira do abismo no centro do anel.

Enquanto isso, aqui na Terra, vamos ensinando nossos computadores, cada vez mais poderosos, a reconhecer padrões em informações incompletas, à maneira de nosso próprio cérebro. E dessa maneira imagens cada vez mais detalhadas de nosso universo vão se formando. “Em princípio, poderíamos ler as placas de trânsito dos alienígenas”, diz o astrônomo Daniel Marrone, da Universidade do Arizona. “Mas elas teriam de ser superbrilhantes”.

]]>
0
Tragédias levaram países a banir Boeing 737 Max de forma precoce http://paraondeomundovai.blogosfera.uol.com.br/2019/04/05/tragedias-levaram-paises-a-banir-boeing-737max-de-forma-precoce/ http://paraondeomundovai.blogosfera.uol.com.br/2019/04/05/tragedias-levaram-paises-a-banir-boeing-737max-de-forma-precoce/#respond Fri, 05 Apr 2019 07:00:00 +0000 http://paraondeomundovai.blogosfera.uol.com.br/?p=532

Por Roberto José Silveira Honorato

O acidente com o Boeing 737-8max operado pela empresa aérea Ethiopian Air, no qual lamentavelmente 157 pessoas foram vitimadas em 10 de março de 2019, sinaliza repercussões na essência do modelo de coordenação entre as autoridades de aviação civil. Podemos perceber isso mesmo antes das conclusões das investigações.

Anteriormente, este modelo de aeronave já havia registrado um acidente de semelhantes proporções. A tragédia, com 189 vítimas fatais, ocorreu em 29 de outubro de 2018 – naquela ocasião a aeronave era operada pela companhia Lion Air.

Os níveis de segurança alcançados pelo transporte aéreo, reconhecidamente um dos mais seguros meios de transporte, tem fundamento na evolução tecnológica e em processos rígidos, que levam à identificação precisa das causas dos acidentes, à sua eliminação e à sua mitigação.

Em consequência dos dois acidentes acima citados, antes mesmo do conhecimento de suas causas, vários governos baniram os voos dos Boeing 737max.

Esta situação não é totalmente inédita. Há registro de caso em que a frota de determinada aeronave foi parada, sem se conhecer a condição insegura. A aeronave de Havilland Comet 1, após três acidentes, teve suas operações suspensas e uma série exaustiva de testes foram realizados até que se conheceu o motivo dos acidentes e as operações foram retomadas.

Pode-se afirmar que o monitoramento das autoridades de aviação civil é constante. Não é necessário um acidente para despertá-las. Situações inesperadas, as dificuldades em serviço, são mapeadas e avaliadas em profundidade, com o intuito de se tomar ações para impedir que a sua repetição.

A rede de comunicação se forma em volta da autoridade que certificou originalmente a aeronave. Normalmente esta autoridade possui as informações mais precisas e frescas. Desta forma, é esperado que tome as medidas necessárias, normalmente através de Diretrizes de Aeronavegabilidade (mecanismo que pode ser comparado aos recalls da indústria automobilística).

O distúrbio neste sistema ocorre quando alguns elementos peculiares se somam.

Em primeiro lugar, a suspeita de que há algo errado, em nível sistêmico, logo vem ao pensamento de especialistas e leigos.

Isso porque, mesmo que as semelhanças não indiquem necessariamente ligação em termos de causa, tratava-se do segundo acidente no mesmo tipo de aeronave e ambos ocorreram na fase inicial do voo. Ainda, contribui o fato de existirem poucas informações (muitas vezes até mesmo as trocas de mensagens com a torre de controle ajudam a esclarecer o que ocorreu) e a gravidade da tragédia, sem sobreviventes.

Na semana seguinte ao acidente, por mais que se pudesse listar estas semelhanças, por si só elas não explicavam os eventos, em termos objetivos e claros.

As ações de correção devem ser racionais, objetivas e efetivas. É necessário conhecer o que ocorreu e por que ocorreu. A solução é fundamentada na efetividade frente a causa raiz.

Os primeiros governos que tomaram decisão pelo banimento dos 737max fundamentaram suas decisões nas incertezas existentes. Já os países com regulamentação mais madura têm dificuldades em tomar decisões sem que se tenha conhecimento da causa do acidente, em especial aqueles que sediam as companhias fabricantes de aeronaves.

Por fim, a gota d’água ocorreu quando informações de satélites demonstraram semelhanças na atitude da aeronave antes de colidir com o solo.

Estas informações, que foram originadas de uma empresa privada, mesmo que ainda não fossem conclusivas quanto as causas do acidente, fluíram de forma não organizada entre os governos – o que intensificou a escalada que levou à parada praticamente global dos 737-max.

Os Estados Unidos, Estado de projeto e fabricação, decidiram por não emitir Diretriz de Aeronavegabilidade, no entanto interromperam as operações em seu território. Esta decisão foi fundamentada nas informações de satélite, bem como, em evidências obtidas no local do acidente.

Em situações normais a emissão de Diretriz de Aeronavegabilidade garantiria a replicação em termos globais da decisão da autoridade de projeto e fabricação. No caso do Brasil, automaticamente.

Decisões pelo banimento de aeronaves sem se conhecer objetivamente a condição insegura, principalmente após acidentes, podem abrir um precedente potencialmente danoso para o setor da aviação. Isso porque após acidentes aéreos, por comoção da sociedade ou outro motivo, poder-se-ia motivar a parada das aeronaves sem que existissem causas sistêmicas justificáveis.

Outro aspecto importante a se considerar é o retorno à operação. Mais complicado do que banir as aeronaves é o retorno das operações. Por razoes óbvias, neste momento a relação entre acidente e a sua causa devem ser conhecidas e mitigadas. Nos mecanismos existentes, o retorno à operação com o comprimento de Diretriz de Aeronavegabilidade é um processo natural, não necessariamente fácil, mas tendente a fluir melhor. 

O aprimoramento dos mecanismos de cooperação internacional é necessário para que a aviação, indústria e governos, atendam às legítimas expectativas da sociedade de forma sensata e possam garantir o desenvolvimento da segurança na aviação.

A velocidade da informação, fontes de informação não ordenadas e a comoção internacional precisam ser consideradas.

(esse texto não necessariamente reflete a opinião da ANAC)

 

Sobre o autor: Roberto José Silveira Honorato é Engenheiro Eletrônico e de Telecomunicações formado pela Pontifícia Universidade Católica de Minas Gerais (PUC-Minas) e pós-graduado em Gestão da Aviação Civil pela Universidade de Brasília (UnB). Atuou com aviônicos por 10 anos na indústria de manutenção e engenharia. É servidor de carreira do primeiro concurso da ANAC, como Especialista em Regulação da Aviação Civil. De 2011 a 2016 foi Gerente Técnico de Processo Normativo da Superintendência de Aeronavegabilidade (SAR), onde atua como superintendente desde 2016.

]]>
0
Já temos a cura da Aids? Quase. Mas é preciso cautela http://paraondeomundovai.blogosfera.uol.com.br/2019/03/29/ja-temos-a-cura-da-aids-quase-mas-e-preciso-cautela/ http://paraondeomundovai.blogosfera.uol.com.br/2019/03/29/ja-temos-a-cura-da-aids-quase-mas-e-preciso-cautela/#respond Fri, 29 Mar 2019 07:00:40 +0000 http://paraondeomundovai.blogosfera.uol.com.br/?p=526

Esse último mês fomos novamente surpreendidos com manchetes sobre a “cura da Aids”, trazendo esperança para os 37 milhões de portadores do vírus HIV mundo afora e gerando a expectativa para o fim dessa doença, que já foi uma sentença de morte. Mas há mesmo razões para comemorar?

Sim, várias, mas cautelosamente. A confirmação de um segundo caso onde o vírus HIV foi permanentemente removido de um paciente não significa que já há um tratamento disponível que elimine a doença. Mas significa sim que estamos fechando o cerco e chagando perto de tratamentos capazes de eliminar o vírus HIV, coroando décadas de esforço que lentamente elevaram a expectativa de vida dos portadores quase aos mesmos níveis da população saudável.

Essa história começou há exatos doze anos, com o chamado “paciente de Berlin”. Esse paciente, portador do vírus HIV, sofria também de leucemia (porque desgraça pouca é bobagem). Depois de tentativas frustradas de curar o câncer com quimioterapia, restou a opção do transplante de medula óssea. Nesse procedimento as células tronco do sistema imunológico do paciente, comprometidas pelo câncer, são eliminadas por radiação ou quimioterapia e substituídas pelas células obtidas de um doador, que regeneram todo o sistema imunológico com células geneticamente iguais às implantadas.

Nesse caso, as células tronco implantadas no paciente de Berlin vieram de um doador que possuía uma mutação na proteína CCR5 que sabidamente protege o paciente contra a infecção pelo HIV. Depois do procedimento, o paciente de Berlin foi tratado com drogas imunossupressoras fortíssimas, que já não são mais usadas, e sofreu complicações terríveis por vários meses. Passou por comas induzidos e quase faleceu, mas ao final se recuperou e surpreendentemente havia se livrado do vírus HIV.

A proteína CCR5 é um receptor na superfície de células do sistema imunológico que é reconhecido pelo vírus HIV e usado como entrada ao interior da célula. Uma determinada mutação nessa proteína, chamada delta 32, é capaz de mudar o receptor de maneira que o vírus HIV não mais consegue reconhecê-lo (foi a mesma mutação introduzida recentemente nos controversos bebês chineses geneticamente modificados). Como no caso de um transplante de medula as células do sistema imunológico naturais do paciente são completamente substituídas pelas do doador, o vírus HIV já não consegue infectar nenhuma célula, e acaba sendo completamente eliminado.

A partir daí cientistas tentaram replicar esse procedimento em vários pacientes portadores do HIV que precisavam de transplantes de medula, mas sem sucesso. O que levou à especulação de que uma destruição tão completa do sistema imunológico quanto a do paciente de Berlin seria necessária para eliminar o vírus. Esse novo caso de sucesso do “paciente de Londres” mostra que é possível eliminar o vírus sem ver a morte de tão perto. A recuperação desse paciente foi muito menos complicada que a do paciente de Berlin, assim como outros casos de sucesso que já estão vindo em sequência.

Mas isso significa que já temos a cura da Aids? Ainda não. Transplantes de medula são complicadíssimos, e trazem muito mais risco que os tratamentos convencionais da doença, que mantém níveis baixos do vírus HIV, mas não o eliminam. Mas esse sucesso recente aponta para possíveis alternativas de acabar com o vírus, capazes de introduzir a mutação nas células do paciente sem a necessidade do transplante.

Uma direção é extrair células tronco do paciente, modificá-las em laboratório, introduzindo a mutação, e depois reintroduzi-las no paciente. Tais tentativas ainda não conseguiram elevar a proporção de células modificadas a um nível que completamente elimina o vírus, mas a empresa Sangamo Therapeutics já conseguiu reduzir a carga viral em mil vezes.

Outras opções incluem o uso de vírus modificados ou nanopartículas para introduzir as enzimas capazes de realizar a mutação diretamente nas células imunológicas do paciente, mas essa é uma realidade ainda um pouco distante. Outros esforços tentam a modificação das células tronco do paciente, que por sua vez regenerariam o sistema imunológico com células contendo a mutação. Porém, ainda que a mutação na proteína CCR5 seja capaz de lidar com a maioria das variantes do HIV, essas células ainda seriam vulneráveis ao HIV X4, que usa outro receptor para a invasão.

Ainda que tratamentos que resultassem na eliminação completa do vírus HIV seriam sem dúvida uma excelente notícia, é importante ressaltar o quanto os tratamentos convencionais tem evoluído, junto com políticas públicas que têm reduzido a incidência da doença. Os coquetéis usados para controlar a carga viral do HIV agora podem ser obtidos em injeções mensais, e novas drogas como Truvada ou Discovy podem até mesmo serem usadas na proteção de pessoas saudáveis. Via de regra, as notícias bombásticas sobre curas de doenças quase sempre são questionáveis, mas as evoluções no longo prazo são certamente palpáveis.

]]>
0