BLOGS
>>> Posts
Terça-feira,
16/6/2015
Uma História da Tecnologia da Informação- Parte 4
Claudio Spiguel
+ de 1100 Acessos
Parte 4: Muito bem... para retomarmos nossa viagem através dos tempos, vamos apenas relembrar onde estávamos na Parte 3 (quem não leu as Partes anteriores, é só "clicar" no Mais Claudio Spiguel aí embaixo): começo dos anos 70 no Brasil, privilegiados por poder usar o computador da época, uma calculadora gigante, rapidíssima, e caríssima, subutilizando sua capacidade porque a agendávamos segundo a escala humana de tempo, e só podíamos usá-la um usuário por vez. A próxima parada do meu trem apenas capitalizou no privilégio, aprimorado por alguns anos de trabalho no IPT - Instituto de Pesquisas Tecnológicas, e de magistério ensinando o uso da nova tecnologia aos 5º-anistas do curso de Engenharia Naval da EPUSP.
Subutilizado, mas maravilhoso o computador. Seu uso era excitante! Usávamos modelos de componentes estruturais cujos cálculos complexos associados seriam impossíveis de serem realizados sem o uso da máquina, componentes cujo projeto até então era puramente empírico. Obtínhamos visivelmente estruturas mais leves, mais fortes, mais econômicas, e em tempo reduzido. E se os primeiros anos de carreira trouxeram tais resultados no contexto da pesquisa e do ensino, aquela próxima parada mostrou o lado prático de maneira indelével, pois tive a oportunidade de aplicar meus conhecimentos no projeto estrutural do Aeroporto do Galeão, no Rio de Janeiro, trabalhando para a Hidrosérvice, Engenharia e Projetos.
Forças poderosas nos Estados Unidos já estavam alimentando a evolução que hoje observamos, conforme citamos nas Partes 1 e 2 desta série; o uso do computador no Brasil ainda era o descrito na Parte 3. Eram os meados da década de 70. A evolução para melhorar a taxa de utilização da capacidade de processamento oferecida pelo computador apontava para uma direção óbvia: aproveitar a enorme diferença entre essa capacidade e a capacidade comparável do cérebro humano para colocá-la à disposição do maior número de usuários possível, simultaneamente.
A parada seguinte do meu trem, no Governo Federal em Brasília, iria me colocar face-a-face com a necessidade dessas características, e com os avanços tecnológicos que começavam a POPULARIZAR o uso do computador. O desafio em Brasília era montar um banco de dados para recursos naturais a nível nacional. Começamos pelos recursos vegetais, com grandes coleções já existentes, nos Jardins Botânicos de São Paulo e do Rio de Janeiro, e em herbários localizados na Amazônia, em instituições como o INPA - Instituto Nacional de Pesquisas da Amazônia em Manaus, e o Museu Goeldi, em Belém.
De imediato, a questão principal na área de armazenagem, processamento, e recuperação desses dados foi uma de topologia. Lembrem-se, os computadores eram estanques naquela época... então, colocaríamos um computador em cada local? Além do custo elevado, como faríamos para garantir que as coleções em todos os locais fossem consistentes, e atualizadas, desde que os computadores não se comunicavam? No outro extremo, colocaríamos um computador central em um local e daríamos acesso remoto aos outros locais? Como garantiríamos atualizações provenientes de todos os locais? E se não implementássemos eletronicamente os acessos remotos perderíamos uma das vantagens da computarização dos dados, que era o acesso imediato aos dados mais atualizados possíveis. E foi imerso nessa questão que a minha carreira deu uma guinada que iria influenciar o resto da minha vida, abrindo uma janela única para essa evolução fantástica sobre a qual estou escrevendo a vocês, e que e esquematizada na figura abaixo.
Representando o Brasil em uma reunião da NSF - National Science Foundation (Fundação Nacional de Ciências) dos Estados Unidos, fiz contato com o Prof. George Estabrook, da Universidade de Colorado (Boulder, estado de Colorado, nos Estados Unidos), que tinha acabado de publicar a execução de um programa de computador (coleção de instruções para armazenamento, manipulação, e recuperação de dados) especialmente projetado para coleções de dados estáticos, como são as coleções de dados sobre recursos naturais. Na reunião eu soube que ele estava se transferindo, com o tal programa, para a Universidade de Michigan (Ann Arbor, estado de Michigan, nos Estados Unidos), onde estudos para otimizar o uso e o acesso aos computadores já haviam mostrado resultados impressionantes, e ele me convidou para considerar o programa, implementado na Universidade de Michigan, como a nossa solução.
Na primeira visita que fiz a Ann Arbor, conheci Michael T. Alexander, pesquisador da IBM cedido à Universidade de Michigan para trabalhar exatamente na otimização do acesso aos computadores. Michael era famoso mundialmente pelo seu trabalho na equipe que criou o programa Deep Blue de jogar xadrez, o qual viria a vencer o campeão mundial humano Gary Kasparov em 1997. Na IBM Michael criou o sistema operacional VM -Virtual Machine (Máquina Virtual), que, como seu nome indicava, usava a diferença temporal entre a capacidade do computador e a de um cérebro humano na execução de uma instrução, para partilhar o computador entre vários usuários, dando a impressão para cada usuário que a máquina toda (virtual) estava à sua disposição.
Era exatamente o que precisávamos, na segunda parte da década de 1970. Continuamos a viajar juntos na Parte 5! Nao percam...
Postado por Claudio Spiguel
Em
16/6/2015 às 18h47
Ative seu Blog no Digestivo Cultural!
* esta seção é livre, não refletindo
necessariamente a opinião do site
|
|