Quem nunca quis um robô?!

Confesso que eu toda vez que eu estou pondo a mesa do jantar, ou lavando a louça, imagino que bem que podia existir um robozinho que fizesse essas tarefas domésticas por mim ( quando estou atolada de trabalho, estudo atrasado na faculdade e mais um milhão de coisas para resolver não vou negar que não penso que ele podia fazer essas tarefinhas por mim também, mas finje que eu não falei nada…). Foi por esse e outros fatos que orbitam o imaginario da sociedade, que um grupo de pesquisadores internacionais de várias áreas, elaborou um estudo que identifica as principais questões éticas e sociais que envolvem a robótica e suas pesquisas. Listaram ainda uma série de medidas necessárias para assegurar que a evolução desse tipo de tecnologia leve em consideração o benefício da sociedade, e somente isso.

Esse estudo se preocupa com o fato da robótica estar prestes a quebrar um paradigma e invadir a casa das pessoas, nosso dia-a-dia. O uso dos robôs nas indústrias, como na fabricação de automóveis, ou em situações muito perigosas para as pessoas, como na desativação de explosivos e na exploração submarina já é um fato consolidado. Mas, robôs com aplicações práticas em todos os aspectos das nossas vidas, de aspiradores de pó que trabalham sozinhos até carros que dispensam motoristas, ainda são novidades/sonhos. Realidade essa nem tão distante quanto você imagina!

Na Europa, aproximadamente 1.000 carros inteligentes começaram a ser testados em 2010, e especialistas esperam que os carros sem motorista estejam nas estradas dentro de 10 anos. Temos ainda os robôs para auxiliar idosos e as pernas biônicas, que prometem devolver a capacidade de andar a pessoas com diversos tipos de paralisia. Mas essa verdadeira invasão da robótica nas aplicações diárias tem um lado ruim, que acaba por sucitar uma série discussões, como a autonomia dos robôs, a privacidade e a coleta de dados pessoais.

Bom, vamos ao que interessa! As principais conclusões do estudo foram:

– as aplicações na área da saúde, a proteção de dados pessoais, a autonomia dos robôs e a responsabilidade por eles e o custo/benefício das pesquisas são tópicos que merecem uma atenção maior.

– a abordagem multidisciplinar é crucial: a robótica se baseia em e serve a muitas áreas, e seus impactos alcançam toda a sociedade. Sendo assim, uma evolução estruturada só será possível com a participação de uma comunidade que inclua profissionais da área de robótica, humanidades e até artes. ( computação também! Essa foi por minha conta ). Será necessário reunir todos os elementos e desenvolver um entendimento comum das questões antes de se chegar a um acordo sobre como eles podem ser enfrentados em conjunto com a humanidade.

– a idéia pública da robótica é baseada nos robôs presentes nos filmes, o que pode tornar difícil para as pessoas entenderem os benefícios e os limites da robótica na vida real. Ou seja, a gente vai querer um ajudante igual ao do filme “O Homem Bicentenário” que até se apaixona!hahahahaha, sem querer duvidar da ciência, mas é impossível!

Queria falar ainda sobre as Leis de Asimov ( juro que é a útima coisinha! Sei que o post já está grande…). São três leis que foram elaboradas pelo escritor Isaac Asimov em seu livro de ficção I, Robot (“Eu, Robô”) que, são as ditas ” Leis da Robótica” e, portanto, dirigem o comportamento dos robôs. São elas:

1ª lei: Um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano sofra algum mal.
2ª lei: Um robô deve obedecer as ordens que lhe sejam dadas por seres humanos, exceto nos casos em que tais ordens contrariem a Primeira Lei.
3ª lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira e Segunda Leis.

Para o grupo de cientistas do estudo, é importante que os pesquisadores e os patrocinadores das pesquisas assumam a responsabilidade pelos robôs em um estágio inicial, até que a sociedade tenha chegado a um acordo a quem cabe de fato essa responsabilidade. Os cientistas pretendem agora desenvolver uma versão atualizada das Leis de Asimov ( que fazem parte de uma ficção ciéntifica, isso é o ápice! Sério! ) para os projetistas e usuários de robôs, com o objetivo de criar um amplo debate na sociedade sobre “a chegada dos robôs”.

Fiquei muito ansiosa…

beijos!

Programadores do mundo, uni-vos!

As vezes vocês têm a sensação de que não tem mais o que inventar? Que nesse mundo de tantas novidades e evoluções não temos mais o que fazer, inventar, melhorar? As vezes tenho a sensação de que já atingimos um nível em que o detalhe é que faz a dierença…vai ser o layout bonito, o material usado, o marketing feito que vai fazer a diferença, porque se quisermos mesmo evoluir muito, vamos ter que rever tudo, literalmente começar de novo…e na informática isso não é diferente!

Depois de décadas em ritmo aceleradíssimo de desenvolvimento o desempenho dos computadores está prestes a sofrer um travamento. Só uma revolução será capaz de mudar essa previsão fatalista! Pois é essa foi uma das conclusões de um novo relatório elaborado pelo Conselho Nacional de Pesquisas dos EUA, intitulado
Diante disso, segundo eles, a única forma de evitar essa “crise mundial” está em um conjunto de mudanças revolucionárias no desenvolvimento dos programas e no projeto dos processadores.

Ficou nervoso? Eu também fiquei! Agora imagine os donos das indústrias de informática e relacionados que juntos tem um faturamento na casa do trilhão de doláres e são protagonistas no crescimento da econômia mundial! Eu que não queria estar na pele deles…MENTIRA! Queria sim!hahahaha

Legal esse Conselho não!? Lança uma bomba dessas e se quer dá um solução!
Bom, reclamações a parte, dei uma pesquisada pra entender melhor porque eles chegaram a essa trágica conclusão. Aí vai…

No caso dos microprocessadores, eles perceberam que esses aumentaram de velocidade por um fator de 10.000 durante os anos 1980 e 1990. Mas aí dois obstáculos apareceram: a medida que os transistores se tornaram cada vez menores e mais densamente empacotados dentro dos chips, a velocidade dos processadores se estabilizou, na casa dos 3 gigahertz por volta de 2005. Por que isso? Chips com clocks maiores são mais esquentadihos! Perdoem a piada infame!!!!hahahahahahah Mas a verdade é essa, chips mais velozes geram mais calor.

No meu caso, essa velocidade de clock é mais que suficiente, ( estou de bom humor hoje! ) porém ela ameaça acabar com a famosa Lei de Moore – a duplicação do número de transistores em um chip a cada dois anos. Visando cumprir essa professia, os fabricantes começaram a fabricar processadores com vários núcleos. Essa é a idéia dos multicore. Parece boa, não!? Aliás, tem funcionado! Mas não é o suficiente para o Conselho fofo, que no relatório advertiu ainda que processadores multicore não são o bastante para salvar a Lei de Moore, já que a eficiência energética dos transistores atuais não pode melhorar muito mais, e o desempenho “irá se tornar limitado pelo consumo de energia dentro de uma década”. Meus Deus! É o nosso fim…

Calma! Também não é assim! Há uma saída segundo o documento: é só inventar uma nova arquitetura para os transistores, ou seja, usar transistores melhores, que ainda não foram inventados. Nossa hein Conselho!? Ajudou! Depois dessa “dica” ficou fácil! Fala aí…

Só mais uma coisinha…sem querer parecer com o Conselho aí que lança a bomba e sai de cena eu preciso lembra uma coisinha pra vocês!

Os processadores multicore têm que enfrentar outro probleminha: os programas de computador foram e ainda são feitos baseados no paradigma anterior, em que as tarefas eram executadas sequencialmente. Então para que computadores com processadores de múltiplos núcleos funcionem bem, é necessário projetar os softwares para que eles sejam capazes de aproveitar essa capacidade de rodar programas paralelamente. Muito têm sido feito, mas ainda temos muito o que fazer. Mais uma tarefinha para nos estudantes e trabalhadores da área. Administrar todos esse poder de procesamento! Garanto que não vai faltar trabalho!hahahaha

Não podemos negar que a programação paralela é promissora, e, ao contrário de uma nova arquitetura de transistores, já foi inventada e alguns processamentos científicos já trabalham bem em paralelo, como os simuladores, por exemplo na previsão do tempo. O Google até já desenvolveu um conjunto de ferramentas de programação paralela, chamada MapReduce, para processar as enorme (põe enorme nisso ) massa de dados coletadas pelo seu rastreador, que indexa a internet.

Mas o relatório nos faz mais uma advertência ( juro que eu já peguei birra de relatório! ): a conversão da maior parte dos softwares, para aplicações paralelas, “será extremamente difícil”. Exigirá novos processos de engenharia de software, novas ferramentas. E os programadores terão de passar por uma reciclagem completa para serem capazes de usá-los.

Chega de advertências desse Conselho né!? Já estamos bem otimistas e calmos para as próximas décadas! Pelo menos temos certeza que trabalho não vai faltar! ;D

beijos!

PS: Acho que escrevi demais, não!?

Novidade da vez: BIOCHIPS.

Inaugurando 2011…

Os biochips usam canais microscópicos, escavados em plástico ou vidro, para realizar análises biológicas ou químicas com uma precisão e uma velocidade que não são possíveis com os equipamentos tradicionais. Depois desse coméntário completamente técnico e difícil de ser compreendido pela maioria das pessoas (inclusive eu) queria falar um pouquinho mais sobre esses novos dispositivos…

Eles podem ser usados para realizar exames médicos, testar novos medicamentos, fazer análises de alimentos, monitoramento ambiental e até servirem como biofábricas. Já existem biochips capazes até de detectar o HIV, sequenciar DNA, detectar tipo e gravidade do câncer e simular o metabolismo de medicamentos no corpo humano tudo isso em segundos, apenas para citar alguns exemplos.

Para possibilitar tudo isso eles precisam ser conectados a computadores, previamente  preparados para receber as medições, analisá-las, compará-las com padrões e mostrar os resultados na tela, enviá-los para uma impressora ou disponibilizar as informações pela internet. Apesar de tantas tarefas, com alguns programinhas, computadores nem tão “potentes” tiram tudo isso de letra! Mesmo os telefones celulares já têm capacidade suficiente para processar as medições feitas pelos biochips, podendo ainda transmitir os dados para um laboratório central, abrindo a possibilidade de atendimento emergencial em áreas remotas. Bom, né!?  Esses dispositivos tão difundidos pelo mundo, já podem, em conjunto com um biochip adequado e sua câmera funcionar como microscópios.

Um
Este biochip capaz de fazer mais de mil reações químicas simultâneas é um bom exemplo da dificuldade de interconexão dos microdispositivos com o mundo macro. [Imagem: UCLA]

Desenvolver interfaces específicas para cada dispositivo criado é uma necessidade para que os bons resultados nos laboratórios se transformem em soluções comerciais disponíveis para a população. Visando essa comercialização, engenheiros da Universidade da Califórnia, nos Estados Unidos, desenvolveram uma interface que promete facilitar o desenvolvimento desses dispositivos médicos ultracompactos. Eles acreditam que a interface tem potencial para se tornar uma espécie de USB dos microchips.

Os conectores, batizados pelos cientistas de Fit-to-Flow,  podem ser integrados e serem controlados pelo mesmo padrão de conexão, usado em computadores ( PCI ), sendo acionado via computador ou smartphone sempre que for necessário. Com este esquema padrão de conexão, biochips projetados para executar testes diferentes, como analisar amostras de ar, água ou de sangue, poderão ser plugados no mesmo dispositivo de manipulação de fluidos em grande escala e sendo controlados por um equipamento eletrônico padrão, seja um computador, um telefone celular ou qualquer equipamento futuro que incorpore o sistema de comunicação. Belíssima notícia, não!? Acho que nem vai demorar tanto assim para chegar as nossas mãos!

beijos!