Foram milhares de anos até o computador evoluir do ÁBACO ― criado há mais de 3.000 anos no antigo Egito ― para a PASCALINA ― geringonça desenvolvida no século XVII pelo matemático francês Blaise Pascal e aprimorada mais adiante pelo alemão Gottfried Leibniz, que lhe adicionou a capacidade de somar e dividir. Mas o “processamento de dados” só viria com o Tear de Jacquard ― primeira máquina programável ―, que serviu de base para Charles Babbage projetar um dispositivo mecânico capaz de computar e imprimir tabelas científicas, precursor do tabulador estatístico de Herman Hollerith, cuja empresa viria se tornar a gigante IBM.

Nos anos 1930, Claude Shannon aperfeiçoou o Analisador Diferencial (dispositivo de computação movido a manivelas) mediante a instalação de circuitos elétricos baseados na lógica binária, e alemão Konrad Zuze criou o Z1 (primeiro computador binário digital). Com a deflagração da Segunda Guerra Mundial, a necessidade de decifrar mensagens codificadas e calcular trajetórias de mísseis levou os EUA, a Alemanha e a Inglaterra a investir no desenvolvimento do Mark 1, do Z3 e do Colossus, e, mais adiante, com o apoio do exército norte-americano, pesquisadores da Universidade da Pensilvânia construírem o ENIAC ― um monstrengo de 18 mil válvulas e 30 toneladas que produziu um enorme blecaute ao ser ligado, em 1946, e era capaz somente de realizar 5 mil somas, 357 multiplicações ou 38 divisões simultâneas por segundo ― uma performance incrível para a época, mas que qualquer videogame dos anos 90 já superava “com um pé nas costas”. Para piorar, de dois em dois minutos uma válvula queimava, e como a máquina só possuía memória interna suficiente para manipular dados envolvidos na tarefa em execução, qualquer modificação exigia que os programadores corressem de um lado para outro da sala, desligando e religando centenas de fios.

EDVAC, criado no final dos anos 1940, já dispunha de memória, processador e dispositivos de entrada e saída de dados, e seu sucessor, o UNIVAC, usava fita magnética em vez de cartões perfurados, mas foi o transistor que revolucionou a indústria dos computadores, quando seu custo de produção foi barateado pelo uso do silício como matéria prima. No final dos anos 1950, a IBM lançou os primeiros computadores totalmente transistorizados (IBM 1401 e 7094) e mais adiante a TEXAS INSTRUMENTS revolucionou o mundo da tecnologia com os circuitos integrados (compostos por conjuntos de transistores, resistores e capacitores), usados com total sucesso no IBM 360, lançado em 1964). No início dos anos 70, a INTEL desenvolveu uma tecnologia capaz de agrupar vários CIs numa única peça, dando origem aos microchips, e daí à criação de equipamentos de pequeno porte foi um passo. Vieram então o ALTAIR 8800, vendido sob a forma de kit, o PET 2001, lançado em 1976 e tido como o primeiro microcomputador pessoal, e os Apple I e II (este último já com unidade de disco flexível).

O sucesso estrondoso da Apple despertou o interesse da IBM no filão dos microcomputadores, levando-a a lançar seu PC (sigla de “personal computer”), cuja arquitetura aberta e a adoção do MS-DOS, da Microsoft, se tornaram um padrão de mercado. De olho no desenvolvimento de uma interface gráfica com sistema de janelas, caixas de seleção, fontes e suporte ao uso do mouse ― tecnologia de que a XEROX dispunha desde a década de 70, conquanto só tivesse interesse em computadores de grande porte ―, a empresa de Steve Jobs fez a lição de casa e incorporou esses conceitos inovadores num microcomputador revolucionário. Aliás, quando Microsoft lançou o Windows ― que inicialmente era uma interface gráfica que rodava no DOS ― a Apple já estava anos-luz à frente.

Para encurtar a história, a IBM preferiu lançar seu PS/2, de arquitetura fechada e proprietária, a utilizar então revolucionário processador 80386 da INTEL, mas Compaq convenceu os fabricantes a continuar utilizando a arquitetura aberta. Paralelamente, o estrondoso sucesso do Windows 3.1 contribuiu para liquidar de vez a parceria Microsoft/IBM, conquanto ambas as empresas buscassem desenvolver, cada qual à sua maneira, um sistema que rompesse as limitações do DOS. Depois de uma disputa tumultuada entre o OS/2 WARP e o Windows 95 (já não mais uma simples interface gráfica, mas um sistema operacional autônomo, ou quase isso), a estrela de Bill Gates brilhou, e o festejado Win98 sacramentou a Microsoft como a “Gigante do Software”.

O resto é história recente: a arquitetura aberta se tornou padrão de mercado, o Windows se firmou como sistema operacional em todo o mundo (a despeito da evolução das distribuições LINUX e da preferência de uma seleta confraria de nerds pelos produtos da Apple) e a evolução tecnológica favoreceu o surgimento de dispositivos de hardware cada vez mais poderosos, propiciando a criação de softwares cada vez mais exigentes.

Enfim, foram necessários milênios para passarmos do ábaco aos primeiros mainframes, mas poucas décadas, a partir de então, para que “pessoas comuns” tivessem acesso aos assim chamados “computadores pessoais” ― ou microcomputadores ―, que até não muito tempo atrás custavam caríssimo e não passavam de meros substitutos da máquina de escrever, calcular e, por que não dizer, do baralho de cartas e dos então incipientes consoles de videogame. Em pouco mais de três décadas, a evolução tecnológica permitiu que os desktops e laptops das primeiras safras diminuíssem de tamanho e de preço, crescessem astronomicamente em poder de processamento, recursos e funções, e se transformassem nos smartphones tablets atuais, sem os quais, perguntamo-nos, como conseguimos viver durante tanto tempo.

Continuamos no próximo capítulo. Até lá.