Computador
Um computador é uma máquina que pode ser programada para realizar automaticamente sequências de operações aritméticas ou lógicas (computação). Os computadores eletrônicos digitais modernos podem executar conjuntos genéricos de operações conhecidos como programas, que permitem que os computadores executem uma ampla gama de tarefas. Os termos sistema de computador ou sistema computacional podem se referir a um computador nominalmente completo que inclui hardware, sistema operacional, software e equipamento periférico necessário e usado para operação completa; ou a um grupo de computadores vinculados e que funcionam juntos, como uma rede de computadores ou cluster de computadores.
Uma ampla gama de produtos industriais e de consumo utiliza computadores como sistemas de controle, incluindo dispositivos simples para fins especiais, como fornos de microondas e controles remotos, além de dispositivos de fábrica, como robôs industriais. Os computadores estão no centro de dispositivos de uso geral, como computadores pessoais e dispositivos móveis, como smartphones, além de alimentarem a Internet, que liga milhares de milhões de computadores e utilizadores.
Os primeiros computadores deveriam ser usados apenas para cálculos. Instrumentos manuais simples, como o ábaco, ajudam as pessoas a fazer cálculos desde os tempos antigos. No início da Revolução Industrial, alguns dispositivos mecânicos foram construídos para automatizar tarefas longas e tediosas, como padrões de orientação para teares. Máquinas elétricas mais sofisticadas faziam cálculos analógicos especializados no início do século XX. As primeiras máquinas de calcular eletrônicas digitais foram desenvolvidas durante a Segunda Guerra Mundial, tanto eletromecânicas quanto utilizando válvulas termiônicas. Os primeiros transistores semicondutores no final da década de 1940 foram seguidos pelo MOSFET baseado em silício (transistor MOS) e pelas tecnologias de chip de circuito integrado monolítico no final da década de 1950, levando ao microprocessador e à revolução do microcomputador na década de 1970. A velocidade, potência e versatilidade dos computadores têm aumentado dramaticamente desde então, com a contagem de transistores aumentando rapidamente (a lei de Moore observou que a contagem dobrou a cada dois anos), levando à Revolução Digital durante o final do século XX e início do século XXI.
Convencionalmente, um computador moderno consiste em pelo menos um elemento de processamento, normalmente uma unidade central de processamento (CPU) na forma de um microprocessador, juntamente com algum tipo de memória de computador, normalmente chips de memória semicondutores. O elemento de processamento realiza operações aritméticas e lógicas e uma unidade de sequenciamento e controle pode alterar a ordem das operações em resposta às informações armazenadas. Os dispositivos periféricos incluem dispositivos de entrada (teclados, mouses, joystick, etc.), dispositivos de saída (telas de monitores, impressoras, etc.) e dispositivos de entrada/saída que executam ambas as funções (por exemplo, a tela sensível ao toque da década de 2000). Os dispositivos periféricos permitem que informações sejam recuperadas de uma fonte externa e permitem que os resultados das operações sejam salvos e recuperados.
Definição
Um computador não precisa ser eletrônico, nem mesmo ter processador, nem memória RAM, nem mesmo disco rígido. Embora o uso popular da palavra "computador" seja sinônimo de computador eletrônico pessoal, uma definição moderna típica de computador é: " Um dispositivo que computa, especialmente uma máquina eletrônica programável [geralmente] que executa alto desempenho. acelerar operações matemáticas ou lógicas ou que reúna, armazene, correlacione ou de outra forma processe informações”. De acordo com esta definição, qualquer dispositivo que processe informações é qualificado como um computador.[1]
História
Pré-século XX
Dispositivos têm sido usados para auxiliar em processos de contagem há milhares de anos, principalmente usando correspondência um-a-um com os próprios dedos. O primeiro dispositivo de contagem era provavelmente uma forma de bastão de contagem. Mais tarde, os auxílios para manutenção de registros em todo o Crescente Fértil incluíam cálculos (esferas de argila, cones, etc.) que representavam contagens de itens, provavelmente gado ou grãos, selados em recipientes ocos de argila não cozidos. O uso de varetas de contagem é um exemplo.[2]
Acredita-se que o mecanismo de Anticítera seja o mais antigo computador analógico mecânico conhecido, de acordo com Derek J. de Solla Price.[3] Ele foi projetado para calcular posições astronômicas. Foi descoberto em 1901 nos destroços de Anticítera, na ilha grega de Anticítera, entre Citera e Creta, e foi datado de aproximadamente 100 a.C.. Dispositivos de complexidade comparável ao mecanismo de Anticítera só reapareceriam no século XIV.[4]
Muitos auxílios mecânicos para cálculo e medição foram construídos para uso astronômico e de navegação. O planisfério era um mapa estelar inventado pelo persa Albiruni no início do século XI.[5] O astrolábio foi inventado no mundo helenístico no século I ou II a.C. e é frequentemente atribuído ao grego Hiparco. Uma combinação do planisfério e da dioptria, o astrolábio era efetivamente um computador analógico capaz de resolver vários tipos diferentes de problemas na astronomia esférica. Um astrolábio incorporando um calendário mecânico[6][7] e rodas dentadas foi inventado por Abi Bakr de Isfahan, Pérsia, em 1235.[8] Albiruni inventou o primeiro astrolábio do calendário lunissolar com engrenagens mecânicas,[9] uma das primeiras máquinas de processamento de conhecimento com fio fixo[10] com um trem de engrenagens e rodas dentadas, por volta do ano 1000.[11]
O ábaco foi inicialmente usado para tarefas aritméticas. O ábaco romano foi desenvolvido a partir de dispositivos já usados por volta de 2.400 a.C. na Babilônia. Desde então, muitas outras formas de tábuas ou tabelas de cálculo foram inventadas. Numa casa de contagem europeia medieval, um pano xadrez era colocado sobre uma mesa e marcadores eram movidos sobre ele de acordo com certas regras, como uma ajuda para calcular somas de dinheiro.[12]
O planímetro era um instrumento manual para calcular a área de uma figura fechada traçando-a com uma ligação mecânica.[13] A régua de cálculo foi inventada por volta de 1620-1630 pelo clérigo inglês William Oughtred, logo após a publicação do conceito de logaritmo. É um computador analógico operado manualmente para fazer multiplicação e divisão.[14]
Na década de 1770, Pierre Jaquet-Droz, um relojoeiro suíço, construiu um boneco mecânico (autômato) que conseguia escrever segurando uma caneta de pena. Ao mudar o número e a ordem de suas rodas internas, letras diferentes e, portanto, mensagens diferentes, poderiam ser produzidas. Na verdade, ele poderia ser “programado” mecanicamente para ler instruções. Junto com outras duas máquinas complexas, o boneco está no Musée d'Art et d'Histoire de Neuchâtel, na Suíça, e ainda funciona.[15]
Em 1831-1835, o matemático e engenheiro Giovanni Plana desenvolveu uma máquina de calendário perpétuo, que, através de um sistema de polias e cilindros e mais, poderia prever o calendário perpétuo para cada ano de 0 dC (ou seja, 1 aC) a 4000 dC, acompanhando anos bissextos e duração variável do dia.[16] A máquina de previsão de marés inventada pelo cientista escocês Sir William Thomson em 1872 foi de grande utilidade para a navegação em águas rasas. Ele usou um sistema de roldanas e fios para calcular automaticamente os níveis de maré previstos para um determinado período em um local específico.[17]
O analisador diferencial, um computador mecânico analógico projetado para resolver equações diferenciais por integração, utilizou mecanismos de roda e disco para realizar a integração. Em 1876, Sir William Thomson já havia discutido a possível construção de tais calculadoras, mas ficou frustrado com o torque de saída limitado dos integradores de esfera e disco.[18]
Na década de 1890, o engenheiro espanhol Leonardo Torres Quevedo começou a desenvolver uma série de máquinas analógicas avançadas que poderiam resolver raízes reais e complexas de polinômios,[19][20][21][22] que foram publicadas em 1901 pela Academia de Ciências de Paris.[23]
Primeiro computador
Charles Babbage, engenheiro mecânico e polímata inglês, originou o conceito de computador programável. Considerado o “pai do computador”, ele conceituou e inventou o primeiro computador mecânico no início do século XIX.[24]
Depois de trabalhar em seu motor diferencial, ele anunciou sua invenção em 1822, em um artigo para a Royal Astronomical Society, intitulado "Nota sobre a aplicação de máquinas ao cálculo de tabelas astronômicas e matemáticas",[25] ele também o projetou para auxiliar em cálculos de navegação. Em 1833 ele percebeu que um projeto muito mais geral, um motor analítico, era possível. A entrada de programas e dados deveria ser fornecida à máquina por meio de cartões perfurados, método utilizado na época para direcionar teares mecânicos. Para saída, a máquina teria uma impressora, um plotter de curvas e uma campainha. A máquina também seria capaz de perfurar números em cartões para serem lidos posteriormente. Incorporava também uma unidade lógica aritmética, controle de fluxo na forma de ramificações e loops condicionais e memória integrada, tornando-o o primeiro projeto de um computador de uso geral que poderia ser descrito em termos modernos como Turing completude.[26][27]
Máquina de calcular eletromecânica
Em sua obra Essays on Automatics publicada em 1914, o espanhol Leonardo Torres Quevedo escreveu uma breve história dos esforços de Babbage na construção de uma máquina diferencial mecânica e uma máquina analítica. O artigo contém o projeto de uma máquina capaz de calcular fórmulas como , para uma sequência de conjuntos de valores. Toda a máquina deveria ser controlada por um programa somente leitura, completo com provisões para ramificação condicional. Ele também introduziu a ideia da aritmética de vírgula flutuante.[28][29][30] Em 1920, para comemorar o 100º aniversário da invenção do aritmômetro, Torres apresentou em Paris o Aritmômetro Eletromecânico, que permitia ao usuário inserir problemas aritméticos por meio de um teclado, calcular e imprimir os resultados,[31][32][33][34] demonstrando a viabilidade de um motor analítico eletromecânico.[35]
Computadores analógicos
Durante a primeira metade do século XX, muitas necessidades de computação científica foram atendidas por computadores analógicos cada vez mais sofisticados, que usavam um modelo mecânico ou elétrico direto do problema como base para a computação. No entanto, estes não eram programáveis e geralmente careciam da versatilidade e precisão dos computadores digitais modernos.[36]
O analisador diferencial, um computador analógico mecânico projetado para resolver equações diferenciais por integração usando mecanismos de roda e disco, foi conceituado em 1876 por James Thomson, o irmão mais velho do mais famoso Sir William Thomson.[18] Em 1927, o equipamento foi construído por H. L. Hazen e Vannevar Bush no MIT. Isto se baseou nos integradores mecânicos de James Thomson e nos amplificadores de torque inventados por H. W Nieman.. Uma dúzia desses dispositivos foram construídos antes de sua obsolescência se tornar óbvia. Na década de 1950, o sucesso dos computadores eletrônicos digitais significou o fim da maioria das máquinas de computação analógicas, mas os computadores analógicos permaneceram em uso durante a década de 1950 em algumas aplicações especializadas, como educação (régua de cálculo) e aeronaves (sistemas de controle).[37][38]
Computadores digitais
Eletromecânico
Em 1938, a Marinha dos Estados Unidos desenvolveu um computador eletromecânico analógico pequeno o suficiente para ser usado a bordo de um submarino. Este foi o Torpedo Data Computer, que utilizou trigonometria para resolver o problema de disparar um torpedo contra um alvo em movimento.[41] Durante a Segunda Guerra Mundial, dispositivos semelhantes também foram desenvolvidos em outros países. Os primeiros computadores digitais eram eletromecânicos ; interruptores elétricos acionavam relés mecânicos para realizar o cálculo. Esses dispositivos tinham uma velocidade operacional baixa e acabaram sendo substituídos por computadores totalmente elétricos muito mais rápidos, originalmente usando tubos de vácuo. O Z2, criado pelo engenheiro alemão Konrad Zuse em 1939 em Berlim, foi um dos primeiros exemplos de computador eletromecânico.[42]
Em 1941, Zuse seguiu sua máquina anterior com o Z3, o primeiro computador digital eletromecânico programável e totalmente automático do mundo.[43][44] O Z3 foi construído com 2.000 relés, implementando um comprimento de palavra de 22 bits que operava em uma frequência de clock de cerca de 5–10 Hz.[45]
O código do programa foi fornecido em filme perfurado enquanto os dados podiam ser armazenados em 64 palavras de memória ou fornecidos pelo teclado. Era bastante semelhante às máquinas modernas em alguns aspectos, sendo pioneiro em vários avanços, como os números de vírgula flutuante. Em vez do sistema decimal mais difícil de implementar (usado no projeto anterior de Charles Babbage), o uso de um sistema binário significava que as máquinas de Zuse eram mais fáceis de construir e potencialmente mais confiáveis, dadas as tecnologias disponíveis na época.[46] O Z3 não era em si um computador universal, mas poderia ser estendido para ter Turing completude.[47][48]
O próximo computador de Zuse, o Z4, tornou-se o primeiro computador comercial do mundo; após atraso inicial devido à Segunda Guerra Mundial, foi concluído em 1950 e entregue à ETH Zurique.[49] O computador foi fabricado pela própria empresa de Zuse, Zuse KG, fundada em 1941 como a primeira empresa com o único objetivo de desenvolver computadores em Berlim.[49]
Tubos de vácuo e circuitos eletrônicos digitais
Os elementos de circuitos puramente eletrônicos logo substituíram seus equivalentes mecânicos e eletromecânicos, ao mesmo tempo em que o cálculo digital substituiu o analógico. O engenheiro Tommy Flowers, trabalhando na Post Office Research Station em Londres na década de 1930, começou a explorar o possível uso da eletrônica para a central telefônica. Os equipamentos experimentais que ele construiu em 1934 entraram em operação cinco anos depois, convertendo uma parte da rede de central telefônica em um sistema eletrônico de processamento de dados, utilizando milhares de tubos de vácuo.[36] Nos Estados Unidos, John Vincent Atanasoff e Clifford E. Berry da Iowa State University desenvolveram e testaram o Atanasoff–Berry Computer (ABC) em 1942,[50] o primeiro "computador digital eletrônico automático".[51] Esse projeto também era totalmente eletrônico e usava cerca de 300 válvulas a vácuo, com capacitores fixados em um tambor giratório mecanicamente para memória.[52]
Durante a Segunda Guerra Mundial, os decifradores britânicos em Bletchley Park obtiveram vários sucessos na quebra de comunicações militares alemãs criptografadas. A máquina de criptografia alemã, Enigma, foi atacada pela primeira vez com a ajuda de bombas eletromecânicas, muitas vezes comandadas por mulheres.[53][54] Para decifrar a mais sofisticada máquina alemã, a Lorenz SZ 40/42, usada para comunicações de alto nível do Exército, Max Newman e seus colegas contrataram Flowers para construir o Colossus.[52] Ele passou onze meses, desde o início de fevereiro de 1943, projetando e construindo a máquina.[55] Após um teste funcional em dezembro de 1943, o Colossus foi enviado para Bletchley Park, onde foi entregue em 18 de janeiro de 1944[56] e decifrou sua primeira mensagem em 5 de fevereiro.[52]
Colossus foi o primeiro computador programável digital eletrônico do mundo.[36] Utilizava um grande número de válvulas (tubos de vácuo). Ele tinha entrada de fita de papel e era capaz de ser configurado para executar uma variedade de operações lógicas booleanas em seus dados, mas não era Turing-completo. Nove Colossi Mk II foram construídos (o Mk I foi convertido em Mk II perfazendo dez máquinas no total). O Colossus Mark I continha 1.500 válvulas termiônicas (tubos), mas o Mark II com 2.400 válvulas era cinco vezes mais rápido e mais simples de operar do que o Mark I, acelerando bastante o processo de decodificação.[57][58]
O ENIAC (Electronic Numerical Integrator and Computer) foi o primeiro computador eletrônico programável construído nos Estados Unidos. Embora fosse semelhante ao Colossus, era muito mais rápido, mais flexível e tinha Turing completude. Assim como o Colossus, um “programa” no ENIAC era definido pelos estados de seus patch cables e switches, muito longe dos programas armazenados nas máquinas eletrônicas que vieram depois. Depois que um programa era escrito, ele precisava ser configurado mecanicamente na máquina com reinicialização manual de plugues e interruptores. As programadoras do ENIAC eram seis mulheres, muitas vezes conhecidas coletivamente como "meninas ENIAC".[59][60]
Ele combinava a alta velocidade da eletrônica com a capacidade de ser programado para muitos problemas complexos. Podia somar ou subtrair 5 mil vezes por segundo, mil vezes mais rápido do que qualquer outra máquina. Também tinha módulos para multiplicar, dividir e raiz quadrada. A memória de alta velocidade foi limitada a 20 palavras (cerca de 80 bytes). Construído sob a direção de John Mauchly e J. Presper Eckert na Universidade da Pensilvânia, o desenvolvimento e construção do ENIAC duraram de 1943 até a plena operação no final de 1945. A máquina era enorme, pesando 30 toneladas, consumindo 200 quilowatts de energia elétrica e continha mais de 18 mil tubos de vácuo, 1.500 relés e centenas de milhares de resistores, capacitores e indutores.[61]
Computadores modernos
Conceito de computador moderno
O princípio do computador moderno foi proposto por Alan Turing em seu artigo seminal de 1936,[62] On Computable Numbers, onde descreveu um dispositivo simples que chamou de "máquina de computação universal" e que hoje é conhecido como máquina de Turing universal. Ele provou que tal máquina é capaz de computar qualquer coisa que seja computável executando instruções (programa) armazenadas em fita, permitindo que a máquina seja programável. O conceito fundamental do projeto de Turing é o programa armazenado, onde todas as instruções de computação são armazenadas na memória. Von Neumann reconheceu que o conceito central do computador moderno se deveu a este artigo.[63] As máquinas de Turing são até hoje um objeto central de estudo na teoria da computação. Exceto pelas limitações impostas por seus armazenamentos de memória finitos, os computadores modernos são considerados Turing-completos, ou seja, possuem capacidade de execução de algoritmos equivalente a uma máquina de Turing universal.[64][65]
Programas armazenados
As primeiras máquinas de computação tinham programas fixos. A mudança de sua função exigiu a religação e a reestruturação da máquina.[52] Com a proposta do computador com programa armazenado, que pode armazenar na memória um conjunto de instruções (um programa ) que detalha a computação, isso mudou. A base teórica para este tipo de computador foi apresentada por Alan Turing em seu artigo de 1936. Em 1945, Turing ingressou no Laboratório Nacional de Física do Reino Unido e começou a trabalhar no desenvolvimento de um computador digital com programa eletrônico armazenado. Seu relatório de 1945, "Calculadora Eletrônica Proposta", foi a primeira especificação para tal dispositivo. John von Neumann, da Universidade da Pensilvânia, também divulgou seu primeiro rascunho de relatório sobre o EDVAC em 1945.[36]
O Manchester Baby foi o primeiro computador com programas armazenados do mundo. Foi construído na Universidade de Manchester, na Inglaterra, por Frederic C. Williams, Tom Kilburn e Geoff Tootill, e executou seu primeiro programa em 21 de junho de 1948.[66] Ele foi projetado como uma plataforma de teste para o tubo Williams, o primeiro dispositivo de armazenamento digital de acesso aleatório.[67] Embora o computador tenha sido descrito como “pequeno e primitivo” em uma retrospectiva de 1998, foi a primeira máquina funcional a conter todos os elementos essenciais para um computador eletrônico moderno.[68] Assim que o Baby demonstrou a viabilidade de seu design, iniciou-se um projeto na universidade para transformá-lo em um computador praticamente útil, o Manchester Mark 1, que rapidamente se tornou o protótipo do Ferranti Mark 1, o primeiro computador de uso geral disponível comercialmente no mundo.[69] Construído por Ferranti, foi entregue à Universidade de Manchester em fevereiro de 1951. Pelo menos sete dessas máquinas posteriores foram entregues entre 1953 e 1957, uma delas para os laboratórios da Shell em Amsterdã.[70] Em outubro de 1947, os diretores da empresa britânica de catering J. Lyons & Company decidiram assumir um papel ativo na promoção do desenvolvimento comercial de computadores. O computador LEO I de Lyons, inspirado no Cambridge EDSAC de 1949, tornou-se operacional em abril de 1951 e executou o primeiro trabalho rotineiro de computador de escritório do mundo.[71]
Transistores
O conceito de transistor de efeito de campo foi proposto por Julius Edgar Lilienfeld em 1925. John Bardeen e Walter Brattain, enquanto trabalhavam com William Shockley no Bell Labs, construíram o primeiro transistor funcional, o Transistor de contato pontual, em 1947, que foi seguido pelo transistor de junção bipolar de Shockley em 1948.[72][73] A partir de 1955, os transistores substituíram os tubos de vácuo nos projetos de computadores, dando origem à "segunda geração" de computadores. Comparados aos tubos de vácuo, os transistores têm muitas vantagens: são menores e requerem menos energia que os tubos de vácuo, portanto emitem menos calor. Os transistores de junção eram muito mais confiáveis que os tubos de vácuo e tinham vida útil mais longa e indefinida. Computadores transistorizados poderiam conter dezenas de milhares de circuitos lógicos binários em um espaço relativamente compacto. No entanto, os primeiros transistores de junção eram dispositivos relativamente volumosos e difíceis de fabricar em produção em massa, o que os limitava a uma série de aplicações especializadas.[74]
Na Universidade de Manchester, no Reino Unido, uma equipe sob a liderança de Tom Kilburn projetou e construiu uma máquina usando os transistores recém-desenvolvidos em vez de válvulas.[75] Seu primeiro computador transistorizado e o primeiro do mundo, estava operacional em 1953, e uma segunda versão foi concluída lá em abril de 1955. No entanto, a máquina utilizou válvulas para gerar seus 125 formas de onda de clock de kHz e no circuito para ler e escrever em sua memória de tambor magnético, portanto não foi o primeiro computador completamente transistorizado. Essa distinção vai para o Harwell CADET de 1955,[76] construído pela divisão de eletrônica do Estabelecimento de Pesquisa de Energia Atômica em Harwell.[76][77]
O transistor de efeito de campo de óxido metálico-silício (MOSFET, sigla em inglês), também conhecido como transistor MOS, foi inventado por Mohamed M. Atalla e Dawon Kahng no Bell Labs em 1959.[78] Foi o primeiro transistor verdadeiramente compacto que pôde ser miniaturizado e produzido em massa para uma ampla gama de usos[74] Com sua alta escalabilidade[79] e consumo de energia muito menor e maior densidade do que os transistores de junção bipolar,[80] o MOSFET tornou possível a construção de circuitos integrados de alta densidade.[81][82] Além do processamento de dados, também possibilitou o uso prático de transistores MOS como elementos de armazenamento de células de memória, levando ao desenvolvimento da memória semicondutora MOS, que substituiu a anterior memória de núcleo magnético em computadores. O MOSFET levou à revolução dos microcomputadores[83] e tornou-se a força motriz por trás da revolução dos computadores.[84][85] O MOSFET é o transistor mais amplamente utilizado em computadores[86][87] e é o bloco de construção fundamental da indústria eletrônica digital.[88]
Circuitos integrados
O próximo grande avanço no poder da computação veio com o advento do circuito integrado (CI). A ideia do circuito integrado foi concebida pela primeira vez por um cientista de radar que trabalhava para o Royal Radar Establishment do Ministério da Defesa do Reino Unido, Geoffrey W. A. Dummer, que apresentou a primeira descrição pública de um circuito integrado no Simpósio sobre Progresso em Componentes Eletrônicos de Qualidade em Washington, DC, em 7 de maio de 1952.[89]
Os primeiros CIs funcionais foram inventados por Jack Kilby da Texas Instruments e Robert Noyce da Fairchild Semiconductor.[90] Kilby registrou suas ideias iniciais sobre o circuito integrado em julho de 1958, demonstrando com sucesso o primeiro exemplo integrado funcional em 12 de setembro de 1958.[91] Em seu pedido de patente de 6 de fevereiro de 1959, Kilby descreveu seu novo dispositivo como "um corpo de material semicondutor ... em que todos os componentes do circuito eletrônico estão completamente integrados".[92][93] No entanto, a invenção de Kilby foi um circuito integrado híbrido (CI híbrido), em vez de um chip de circuito integrado (CI) monolítico.[94] O CI de Kilby tinha conexões de fios externos, o que dificultava sua produção em massa.[95]
Noyce também teve sua própria ideia de um circuito integrado meio ano depois de Kilby. Sua invenção foi o primeiro chip CI verdadeiramente monolítico.[96][95] Seu chip resolveu muitos problemas práticos que o de Kilby não resolveu. Produzido na Fairchild Semiconductor, era feito de silício, enquanto o chip de Kilby era feito de germânio. O CI monolítico de Noyce foi fabricado usando o processo planar, desenvolvido por seu colega Jean Hoerni no início de 1959. Por sua vez, o processo planar foi baseado no trabalho de Mohamed M. Atalla sobre passivação de superfícies de semicondutores por dióxido de silício no final da década de 1950.[97][98][99]
Os CIs monolíticos modernos são predominantemente circuitos integrados MOS (semicondutores de óxido metálico), construídos a partir de MOSFETs (transistores MOS).[100] O primeiro MOS CI experimental a ser fabricado foi um chip de 16 transistores construído por Fred Heiman e Steven Hofstein na RCA em 1962.[101] A General Microelectronics introduziu mais tarde o primeiro MOS CI comercial em 1964,[102] desenvolvido por Robert Norman.[101] Após o desenvolvimento do transistor MOS de porta auto-alinhada (porta de silício) por Robert Kerwin, Donald Klein e John Sarace no Bell Labs em 1967, o primeiro MOS CI de porta de silício com portas auto-alinhadas foi desenvolvido por Federico Faggin em Fairchild Semicondutor em 1968.[103] Desde então, o MOSFET se tornou o componente de dispositivo mais crítico nos CIs modernos.[100]
O desenvolvimento do circuito integrado MOS levou à invenção do microprocessador[104][105] e anunciou uma explosão no uso comercial e pessoal de computadores. Embora a questão de qual dispositivo exatamente foi o primeiro microprocessador seja controversa, em parte devido à falta de acordo sobre a definição exata do conceito de "microprocessador", é amplamente indiscutível que o primeiro microprocessador de chip único foi o Intel 4004,[106] projetado e realizado por Federico Faggin com sua tecnologia MOS IC de porta de silício,[104] junto com Ted Hoff, Masatoshi Shima e Stanley Mazor da Intel.[107] No início dos anos 1970, a tecnologia MOS IC permitiu a integração de mais de 10 mil transistores em um único chip.[82] Sistema em um chip (SoCs, sigla em inglês) são computadores completos em um microchip (ou chip) do tamanho de uma moeda.[108]
Computadores móveis
Os primeiros computadores móveis eram pesados e funcionavam com energia elétrica. O IBM 5100 de 23 quilos era um dos primeiros exemplos. Portáteis posteriores, como o Osborne 1 e o Compaq Portable, eram consideravelmente mais leves, mas ainda precisavam ser conectados. Os primeiros laptops, como o Grid Compass, eliminaram esse requisito ao incorporar baterias - e com a contínua miniaturização dos recursos de computação e os avanços na vida útil da bateria portátil, os computadores portáteis cresceram em popularidade na década de 2000.[109]
Os mesmos desenvolvimentos dos computadores móveis permitiram que os fabricantes integrassem recursos de computação em telefones celulares no início dos anos 2000. Esses smartphones e tablets funcionam em diversos sistemas operacionais e recentemente se tornaram o dispositivo de computação dominante no mercado.[110] Eles são alimentados por SoCs.[108]
Tipos
Os computadores podem ser classificados de várias maneiras diferentes, incluindo:
Por arquitetura
- Computador analógico
- Computador digital
- Computador híbrido
- Arquitetura de Harvard
- Arquitetura de Von Neumann
- Computador com conjunto de instruções complexo
- Computador com conjunto de instruções reduzido
Por tamanho, formato e finalidade
- Supercomputador
- Computador mainframe
- Minicomputador
- Servidor
- Personal computer
- Estação de trabalho
- Microcomputador
- Desktop
- Laptop
- Computadores móveis:
- Wearable computer
- Smartwatch
- Smartglasses
- Computador de placa única
- Mini PC
- Controlador lógico programável
- Computador modular
- Sistema em um chipe
- Microcontrolador
Hardware
Esta seção não cita fontes confiáveis. (Setembro de 2013) |
Mesmo que a tecnologia utilizada nos computadores digitais tenha mudado dramaticamente desde os primeiros computadores da década de 1940 (veja história do hardware), quase todos os computadores atuais ainda utilizam a arquitetura de von Neumann proposta por John von Neumann.
Seguindo a arquitetura, os computadores possuem quatro sessões principais, a unidade lógica e aritmética, a unidade de controle, a memória e os dispositivos de entrada e saída. Essas partes são interconectadas por barramentos. A unidade lógica e aritmética, a unidade de controle, os registradores e a parte básica de entrada e saída são conhecidos como a CPU.
Alguns computadores maiores diferem do modelo acima em um aspecto principal - eles têm múltiplas CPUs trabalhando simultaneamente. Adicionalmente, poucos computadores, utilizados principalmente para pesquisa e computação científica, têm diferenças significativas do modelo acima, mas eles não tem grande aplicação comercial.
Processamento
O processador (ou CPU) é uma das partes principais do hardware do computador e é responsável pelos cálculos, execução de tarefas e processamento de dados. A velocidade com que o computador executa as tarefas ou processa dados está diretamente ligada à velocidade do processador. As primeiras CPUs eram constituídas de vários componentes separados, mas desde meados da década de 1970 as CPUs vêm sendo manufaturadas em um único circuito integrado, sendo então chamadas microprocessadores.
A unidade lógica e aritmética (ULA) é a unidade central do processador, que realmente executa as operações aritméticas e lógicas entre dois números. Seus parâmetros incluem, além dos números operandos, um resultado, um comando da unidade de controle, e o estado do comando após a operação. O conjunto de operações aritméticas de uma ULA pode ser limitado a adição e subtração, mas também pode incluir multiplicação, divisão, funções trigonométricas e raízes quadradas. Algumas podem operar somente com números inteiros, enquanto outras suportam o uso de ponto flutuante para representar números reais (apesar de possuírem precisão limitada).
A unidade de controle é a unidade do processador que armazena a posição de memória que contém a instrução corrente que o computador está executando, informando à ULA qual operação a executar, buscando a informação (da memória) que a ULA precisa para executá-la e transferindo o resultado de volta para o local apropriado da memória. Feito isto, a unidade de controle vai para a próxima instrução (tipicamente localizada na próxima posição da memória), a menos que a instrução seja uma instrução de desvio informando que a próxima instrução está em outra posição. A CPU também contém um conjunto restrito de células de memória chamadas registradores, que podem ser lidas e escritas muito mais rapidamente que em outros dispositivos de memória. São usadas frequentemente para evitar o acesso contínuo à memória principal cada vez que um dado é requisitado.
Memória
A memória é um dispositivo que permite ao computador armazenar dados por certo tempo. Atualmente o termo é geralmente usado para definir as memórias voláteis, como a RAM, mas seu conceito primordial também aborda memórias não voláteis, como o disco rígido. Parte da memória do computador é feita no próprio processador; o resto é diluído em componentes como a memória RAM, memória cache, disco rígido e leitores de mídias removíveis, como disquete, CD e DVD. Nos computadores modernos, cada posição da memória é configurado para armazenar grupos de oito bits (chamado de um byte). Cada byte consegue representar 256 números diferentes; de 0 a 255 ou de -128 a +127. Para armazenar números maiores pode-se usar diversos bytes consecutivos (geralmente dois, quatro ou oito). Quando números negativos são armazenados, é utilizada a notação de complemento para dois. A memória do computador é normalmente dividida entre primária e secundária, havendo também pesquisadores que afirmam haver a memória "terciária".
Memória primária
A memória primária é aquela acessada diretamente pela Unidade Lógica e Aritmética. Tradicionalmente essa memória pode ser de leitura e escrita (RAM) ou só de leitura (ROM). Atualmente existem memórias que podem ser classificadas como preferencialmente de leitura, isso é, variações da memória ROM que podem ser regravadas, porém com um número limitado de ciclos e um tempo muito mais alto. Normalmente a memória primária se comunica com a ULA por meio de um barramento ou canal de dados. A velocidade de acesso a memória é um fator importante de custo de um computador, por isso a memória primária é normalmente construída de forma hierárquica em um projeto de computador. Parte da memória, conhecida como cache fica muito próxima à ULA, com acesso muito rápido. A maior parte da memória é acessada por meio de vias auxiliares. Normalmente a memória é nitidamente separada da ULA em uma arquitetura de computador. Porém, os microprocessadores atuais possuem memória cache incorporada, o que aumenta em muito sua velocidade.
RAM
A memória RAM (Random Access Memory) é uma sequência de células numeradas, cada uma contendo uma pequena quantidade de informação. A informação pode ser uma instrução para dizer ao computador o que fazer. As células podem conter também dados que o computador precisa para realizar uma instrução. Qualquer célula pode conter instrução ou dado, assim o que em algum momento armazenava dados pode armazenar instruções em outro momento. Em geral, o conteúdo de uma célula de memória pode ser alterado a qualquer momento, a memória RAM é um rascunho e não um bloco de pedra. As memórias RAM são denominadas genericamente de DRAM (RAM dinâmica) pelo fato de possuírem uma característica chamada refrescamento de memória, que tem a finalidade de regravar os dados armazenados em intervalos regulares de tempo, o que é necessário para a manutenção de seu conteúdo. O tamanho de cada célula, e o número de células, varia de computador para computador, e as tecnologias utilizadas para implementar a memória RAM variam bastante. Atualmente o mais comum é a implementação em circuitos integrados.
Memória ROM
A memória ROM (Read-Only Memory) é aquela que só pode ser lida e os dados não são perdidos com o desligamento do computador. A diferença entre a memória RAM e a ROM é que a RAM aceita gravação, regravação e perda de dados. Mesmo se for enviada uma informação para ser gravada na memória ROM, o procedimento não é executado (esta característica praticamente elimina a criação de vírus que afetam a ROM). Um software gravado na ROM recebe o nome de firmware. Em computadores da linha IBM-PC eles são basicamente três, que são acessados toda vez que ligamos o computador, a saber: BIOS, POST e SETUP. Existe uma variação da ROM chamada memória preferencialmente de leitura que permite a re-gravação de dados. São as chamadas EPROM (Erasable Programmable Read Only Memory) ou EEPROM (Electrically Erasable Programmable Read-Only Memory).
Memória secundária
A memória secundária ou memória de massa é usada para gravar grande quantidade de dados, que não são perdidos com o desligamento do computador, por um período longo de tempo. Exemplos de memória de massa incluem o disco rígido e mídias removíveis como o CD-ROM, o DVD, o disquete e o pen drive. Normalmente a memória secundária não é acessada diretamente pela ULA, mas sim por meio dos dispositivos de entrada e saída. Isso faz com que o acesso a essa memória seja muito mais lento do que o acesso a memória primária. Para isso cada dispositivo encontra-se com um buffer de escrita e leitura para melhoramento de desempenho. Supostamente, consideramos que a memória terciária está permanentemente ligada ao computador.
Memória terciária
Sistemas mais complexos de computação podem incluir um terceiro nível de memória, com acesso ainda mais lento que o da memória secundária. Um exemplo seria um sistema automatizado de fitas contendo a informação necessária. A memória terciária pode ser considerada um dispositivo de memória secundária ou memória de massa colocado para servir um dispositivo de memória secundária. As tecnologias de memória usam materiais e processos bastante variados. Na informática, elas têm evoluído sempre em direção de uma maior capacidade de armazenamento, maior miniaturização, maior rapidez de acesso e confiabilidade, enquanto seu custo cai constantemente. Entretanto, a memória de um computador não se limita a sua memória individual e física, ela se apresenta de maneira mais ampla, e sem lugar definido (desterritorializada). Temos possibilidades de armazenar em diversos lugares na rede, podemos estar em Cairo e acessar arquivos que foram armazenados em sítios no Brasil. É crescente a tendência para o armazenamento das informações na memória do espaço virtual, ou o chamado ciberespaço, através de discos virtuais e anexos de e-mails. Isto torna possível o acesso a informação a partir de qualquer dispositivo conectado à Internet.
Entrada e saída
Os dispositivos de entrada e saída (E/S) são periféricos usados para a interação homem-computador. Nos computadores pessoais modernos, dispositivos comuns de entrada incluem o mouse (ou rato), o teclado, o digitalizador e a webcam. Dispositivos comuns de saída incluem a caixa de som, o |monitor[112] e a impressora. O que todos os dispositivos de entrada têm em comum é que eles precisam codificar (converter) a informação de algum tipo em dados que podem ser processados pelo sistema digital do computador. Dispositivos de saída por outro lado, descodificam os dados em informação que é entendida pelo usuário do computador. Neste sentido, um sistema de computadores digital é um exemplo de um sistema de processamento de dados. Processo este, que consiste basicamente em três fases: Entrada, Processamento e Saída. Entendemos por entrada todo o procedimento de alimentação de informações, que por sua vez serão processadas (fase de processamento) e após isso, são repassadas as respostas ao usuário (saída). Podemos ter dispositivos que funcionam tanto para entrada como para saída de dados, como o modem e o drive de disquete. Atualmente, outro dispositivo híbrido de dados é a rede de computadores.
Barramentos
Para interligar todos esses dispositivos existe uma placa de suporte especial, a placa-mãe, que através de barramentos, fios e soquetes conecta todos os dispositivos. Sua função inclui também a conexão de placas auxiliares que subcontrolam os periféricos de entrada e saída, como a placa de som (conecta-se com a caixa de som), a placa de vídeo (conecta-se com o monitor), placa de rede (conecta-se com a LAN) e o fax-modem (conecta-se com a linha telefônica). Nota-se que o barramento entre os componentes não constitui uma conexão ponto a ponto; ele pode conectar logicamente diversos componentes utilizando o mesmo conjunto de fios. O barramento pode utilizar uma interface serial ou uma interface paralela. Outros equipamentos adicionais usados em conjunto com a placa-mãe são o dissipador, um pequeno ventilador para resfriar o processador, e a fonte de energia, responsável pela alimentação de energia de todos os componentes do computador.
Arquitetura de software
Instruções
A principal característica dos computadores modernos, o que o distingue de outras máquinas, é que pode ser programado. Isto significa que uma "lista de instruções personlizadas" pode ser armazenada na memória e executadas posteriormente, de acordo com o usuário. As instruções executadas na ULA discutidas acima não são um rico conjunto de instruções como a linguagem humana. O computador tem apenas um limitado número de instruções bem definidas. Um exemplo típico de uma instrução existente na maioria dos computadores é "copie o conteúdo da posição de memória 123 para a posição de memória 456", "adicione o conteúdo da posição de memória 510 ao conteúdo da posição 511 e coloque o resultado na posição 507" e "se o conteúdo da posição 012 é igual a 0, a próxima instrução está na posição 678". Instruções são representadas no computador como números - o código para "copiar" poderia ser 007, por exemplo. O conjunto particular de instruções que um computador possui é conhecido como a linguagem de máquina do computador. Na prática, as pessoas não escrevem instruções diretamente na linguagem de máquina mas em uma linguagem de programação, que é posteriormente traduzida na linguagem de máquina através de programas especiais, como interpretadores e compiladores. Algumas linguagens de programação se aproximam bastante da linguagem de máquina, como o assembly (linguagem de baixo nível); por outro lado linguagens como o Prolog são baseadas em princípios abstratos e se distanciam bastante dos detalhes da operação da máquina (linguagens de alto nível).
A execução das instruções é tal como ler um livro. Apesar da pessoa normalmente ler cada palavra e linha em sequência, é possível que algumas vezes ela volte para pontos anteriores do texto de interesse ou passe sessões não interessantes. Da mesma forma, um computador que segue a arquitetura de von Neumann executa cada instrução de forma sequencial, da maneira como foram armazenadas na memória. Mas, através de instruções especiais, o computador pode repetir instruções ou avançá-las até que alguma condição seja satisfeita. Isso é chamado controle do fluxo e é o que permite que o computador realize tarefas repetitivamente sem intervenção humana. Uma pessoa usando uma calculadora pode realizar operações aritméticas como somar número apertando poucos botões. Mas somar sequencialmente os números de um a mil iria requerer apertar milhares de vezes os botões, com uma alta probabilidade de erro em alguma iteração. Por outro lado, computadores podem ser programados para realizar tal tarefa com poucas instruções, e a execução e extremamente rápida. Mas os computadores não conseguem pensar, eles somente executam as instruções que fornecemos. Um humano instruído, ao enfrentar o problema da adição explicado anteriormente, perceberia em algum momento que pode reduzir o problema usando a seguinte equação:
- ,
e chegar na mesma resposta correta com pouco trabalho. Alguns computadores modernos conseguem tomar algumas decisões para acelerar a execução dos programas ao prever instruções futuras e reorganizar a ordem de instruções sem modificar seu significado. Entretanto, os computadores ainda não conseguem determinar instintivamente uma maneira mais eficiente de realizar sua tarefa, pois não possuem conhecimento para tal.[113]
Programas
A característica definidora dos computadores modernos que os distingue de todas as outras máquinas é que eles podem ser programados. Isso quer dizer que algum tipo de instrução (o programa) pode ser dada ao computador, e ele irá processá-las. Os computadores modernos baseados na arquitetura de von Neumann geralmente possuem código de máquina na forma de uma linguagem de programação imperativa. Em termos práticos, um programa de computador pode consistir apenas em algumas instruções ou estender-se a muitos milhões de instruções, como fazem os programas para processadores de texto e navegadores web, por exemplo. Um típico computador moderno pode executar bilhões de instruções por segundo (gigaflops) e raramente comete erros ao longo de muitos anos de operação. Grandes programas de computador que consistem em vários milhões de instruções podem levar anos para serem escritos por equipes de programadores e, devido à complexidade da tarefa, quase certamente contêm erros. O design de programas pequenos é relativamente simples e envolve a análise do problema, coleta de entradas, uso de construções de programação dentro de linguagens, elaboração ou uso de procedimentos e algoritmos estabelecidos, fornecimento de dados para dispositivos de saída e soluções para o problema, conforme aplicável.[114] À medida que os problemas se tornam maiores e mais complexos, são encontrados recursos como subprogramas, módulos, documentação formal e novos paradigmas, como programação orientada a objetos.[115] Grandes programas envolvendo milhares de linhas de código requerem metodologias formais de software.[116] A tarefa de desenvolver grandes sistemas de software apresenta um desafio intelectual significativo.[117] Produzir software com uma confiabilidade aceitavelmente alta dentro de um cronograma e orçamento previsíveis tem sido historicamente difícil;[118] a disciplina acadêmica e profissional de engenharia de software concentra-se especificamente neste desafio.[119]
Erros em programas de computador são chamados de “bugs”. Podem ser benignos e não afetar a utilidade do programa ou ter apenas efeitos sutis. No entanto, em alguns casos, eles podem fazer com que o programa ou todo o sistema "trave", deixando de responder a entradas como cliques doo mouse ou pressionamentos de teclas, falhando completamente ou travando.[120] Caso contrário, bugs benignos às vezes podem ser aproveitados para fins maliciosos por um usuário inescrupuloso escrevendo um exploit, código projetado para tirar vantagem de um bug e interromper a execução adequada de um computador. Os bugs geralmente não são culpa do computador. Como os computadores apenas executam as instruções que recebem, os bugs são quase sempre o resultado de um erro do programador ou de um descuido cometido no design do programa. A almirante Grace Hopper, uma cientista da computação estadunidense e desenvolvedora do primeiro compilador, é creditada por ter usado pela primeira vez o termo "bugs" na computação depois que uma mariposa morta foi encontrada causando curto-circuito em um relé no computador Harvard Mark II em setembro de 1947.[121]
Sistema operacional
Um computador sempre precisa de no mínimo um programa em execução por todo o tempo para operar, que é chamado de sistema operacional (ou sistema operativo), que determina quais programas vão executar, quando, e que recursos (como memória e E / S) ele poderá utilizar. O sistema operacional também fornece uma camada de abstração sobre o hardware, e dá acesso aos outros programas fornecendo serviços, como programas gerenciadores de dispositivos ("drivers") que permitem aos programadores escreverem programas para diferentes máquinas sem a necessidade de conhecer especificidades de todos os dispositivos eletrônicos de cada uma delas.
Redes e Internet
Os computadores têm sido usados para coordenar informações entre vários locais desde a década de 1950. O sistema SAGE das forças armadas dos Estados Unidos foi o primeiro exemplo em grande escala de tal sistema, o que levou a uma série de sistemas comerciais para fins especiais, como o Sabre.[122] Na década de 1970, engenheiros de computação de instituições de pesquisa nos Estados Unidos começaram a conectar seus computadores usando tecnologia de telecomunicações. O esforço foi financiado pela ARPA (agora DARPA e a rede de computadores resultante foi chamada de ARPANET.[123]
As tecnologias que tornaram possível a Arpanet se espalharam e evoluíram. Com o tempo, a rede se espalhou para além das instituições acadêmicas e militares e ficou conhecida como Internet. O surgimento das redes envolveu uma redefinição da natureza e dos limites do computador. Os sistemas operacionais e aplicativos de computador foram modificados para incluir a capacidade de definir e acessar os recursos de outros computadores na rede, como dispositivos periféricos, informações armazenadas e similares, como extensões dos recursos de um computador individual. Inicialmente estas facilidades estavam disponíveis principalmente para pessoas que trabalhavam em ambientes de alta tecnologia, mas na década de 1990 a disseminação de aplicações como o e-mail e a World Wide Web, combinada com o desenvolvimento de tecnologias de rede rápidas e baratas como Ethernet e ADSL viu as redes de computadores tornarem-se quase onipresentes. Na verdade, o número de computadores conectados em rede está crescendo fenomenalmente. Uma grande proporção de computadores pessoais conecta-se regularmente à Internet para comunicar e receber informações. As redes “sem fio”, muitas vezes utilizando redes de telefonia móvel, significam que as redes estão se tornando cada vez mais onipresentes, mesmo em ambientes de computação móvel.[124]
Futuro
Há pesquisas ativas para criar computadores não clássicos a partir de muitos novos tipos promissores de tecnologia, como computadores ópticos, computadores de DNA, computadores neurais e computadores quânticos. A maioria dos computadores são universais e são capazes de calcular qualquer função computável, e são limitados apenas pela sua capacidade de memória e velocidade de operação. No entanto, diferentes designs de computadores podem proporcionar desempenhos muito diferentes para problemas específicos; por exemplo, computadores quânticos podem quebrar alguns algoritmos de criptografia modernos (por fatoração quântica) muito rapidamente. De todas essas máquinas abstratas, um computador quântico é a mais promissora para revolucionar a computação.[125]
Ver também
- ↑ «Definition of computer». Thefreedictionary.com. Consultado em 29 de janeiro de 2012. Cópia arquivada em 26 de dezembro de 2009
- ↑ Robson, Eleanor (2008). Mathematics in Ancient Iraq. [S.l.]: Princeton University Press. ISBN 978-0-691-09182-2: calculi were in use in Iraq for primitive accounting systems as early as 3200–3000 BCE, with commodity-specific counting representation systems. Balanced accounting was in use by 3000–2350 BCE, and a sexagesimal number system was in use 2350–2000 BCE.
- ↑ The Antikythera Mechanism Research Project Arquivado em 2008-04-28 no Wayback Machine, The Antikythera Mechanism Research Project. Acessado em 1 de julho de 2007.
- ↑ Marchant, Jo (1 de novembro de 2006). «In search of lost time». Nature. 444 (7119): 534–538. Bibcode:2006Natur.444..534M. PMID 17136067. doi:10.1038/444534a
- ↑ G. Wiet, V. Elisseeff, P. Wolff, J. Naudu (1975). History of Mankind, Vol 3: The Great medieval Civilisations, p. 649. George Allen & Unwin Ltd, UNESCO.
- ↑ Fuat Sezgin "Catalogue of the Exhibition of the Institute for the History of Arabic-Islamic Science (at the Johann Wolfgang Goethe University", Frankfurt, Germany) Frankfurt Book Fair 2004, pp. 35 & 38.
- ↑ Charette, François (2006). «Archaeology: High tech from Ancient Greece». Nature. 444 (7119): 551–552. Bibcode:2006Natur.444..551C. PMID 17136077. doi:10.1038/444551a
- ↑ Bedini, Silvio A.; Maddison, Francis R. (1966). «Mechanical Universe: The Astrarium of Giovanni de' Dondi». Transactions of the American Philosophical Society. 56 (5): 1–69. JSTOR 1006002. doi:10.2307/1006002
- ↑ Price, Derek de S. (1984). «A History of Calculating Machines». IEEE Micro. 4 (1): 22–52. doi:10.1109/MM.1984.291305
- ↑ Őren, Tuncer (2001). «Advances in Computer and Information Sciences: From Abacus to Holonic Agents» (PDF). Turk J Elec Engin. 9 (1): 63–70. Consultado em 21 de abril de 2016. Cópia arquivada (PDF) em 15 de setembro de 2009
- ↑ Donald Routledge Hill (1985). "Al-Biruni's mechanical calendar", Annals of Science 42, pp. 139–163.
- ↑ Flegg, Graham. (1989). Numbers through the ages (em inglês). Houndmills, Basingstoke, Hampshire: Macmillan Education. ISBN 0-333-49130-0. OCLC 24660570
- ↑ Museu Nacional da História Americana (ed.). «Planimeters». Consultado em 20 de julho de 2024
- ↑ Smith, David E. (1958). History of Mathematics (em inglês). [S.l.]: Courier Corporation. p. 205. ISBN 9780486204307
- ↑ «The Writer Automaton, Switzerland». chonday.com. 11 de julho de 2013. Consultado em 28 de janeiro de 2015. Cópia arquivada em 20 de fevereiro de 2015
- ↑ «Torino poco nota: la Cappella dei Banchieri e dei Mercanti». www.turismo.it
- ↑ Science Museum Group (ed.). «William Thomson's Tide Predicting Machine, 1872». Consultado em 20 de julho de 2024
- ↑ a b Ray Girvan, "The revealed grace of the mechanism: computing after Babbage" Arquivado em 2012-11-03 no Wayback Machine, Scientific Computing World, Maio/Junho de 2003
- ↑ Torres, Leonardo (10 de outubro de 1895). «Memória sobre las Máquinas Algébricas» (PDF). Revista de Obras Públicas (em espanhol) (28): 217–222
- ↑ Leonardo Torres. Memoria sobre las máquinas algébricas: con un informe de la Real academia de ciencias exactas, fisicas y naturales, Misericordia, 1895.
- ↑ Thomas, Federico (1 de agosto de 2008). «A short account on Leonardo Torres' endless spindle». International Federation for the Promotion of Mechanism and Machine Science. Mechanism and Machine Theory. 43 (8): 1055–1063. ISSN 0094-114X. doi:10.1016/j.mechmachtheory.2007.07.003
- ↑ Gomez-Jauregui, Valentin; Gutierrez-Garcia, Andres; González-Redondo, Francisco A.; Iglesias, Miguel; Manchado, Cristina; Otero, Cesar (1 de junho de 2022). «Torres Quevedo's mechanical calculator for second-degree equations with complex coefficients». IFToMM. Mechanism and Machine Theory. 172 (8): 104830. doi:10.1016/j.mechmachtheory.2022.104830
- ↑ Torres Quevedo, Leonardo (1901). «Machines á calculer». Impr. nationale (París). Mémoires Présentés par Divers Savants à l'Académie des Scienes de l'Institut de France (em francês). XXXII
- ↑ a b Halacy, Daniel Stephen (1970). Charles Babbage, Father of the Computer. [S.l.]: Crowell-Collier Press. ISBN 978-0-02-741370-0
- ↑ O'Connor, John J.; Robertson, Edmund F. (1998). «Charles Babbage». MacTutor History of Mathematics archive. School of Mathematics and Statistics, University of St Andrews, Scotland. Consultado em 14 de junho de 2006. Cópia arquivada em 16 de junho de 2006
- ↑ «Babbage». Online stuff. Science Museum. 19 de janeiro de 2007. Consultado em 1 de agosto de 2012. Cópia arquivada em 7 de agosto de 2012
- ↑ Graham-Cumming, John (23 de dezembro de 2010). «Let's build Babbage's ultimate mechanical computer». opinion (em inglês). New Scientist. Consultado em 1 de agosto de 2012. Cópia arquivada em 5 de agosto de 2012
- ↑ L. Torres Quevedo. Ensayos sobre Automática – Su definicion. Extension teórica de sus aplicaciones, Revista de la Academia de Ciencias Exacta, Revista 12, pp. 391–418, 1914.
- ↑ Torres Quevedo, Leonardo. Automática: Complemento de la Teoría de las Máquinas, (pdf), pp. 575-583, Revista de Obras Públicas, 19 de novembro de 1914.
- ↑ Ronald T. Kneusel. Numbers and Computers, Springer, pp. 84-85, 2017. ISBN 978-3-319-50508-4
- ↑ Randell 1982, p. 6, 11–13.
- ↑ B. Randell. Electromechanical Calculating Machine, The Origins of Digital Computers, pp.109-120, 1982.
- ↑ Bromley 1990.
- ↑ Cristopher Moore. Stephan Mertens. The Nature of Computation, OUP Oxford, p. 291, 2011. ISBN 978-0-199-23321-2
- ↑ Randell, Brian. Digital Computers, History of Origins, (pdf), p. 545, Digital Computers: Origins, Encyclopedia of Computer Science, de janeiro de 2003.
- ↑ a b c d The Modern History of Computing (em inglês). [S.l.]: Stanford Encyclopedia of Philosophy. 2017. Consultado em 7 de janeiro de 2014. Cópia arquivada em 12 de julho de 2010
- ↑ Karl L. Wildes and Nilo A. Lindgren, A Century of Electrical Engineering and Computer Science at MIT, 1882-1982 (Cambridge, Massachusetts: MIT Press, 1985), pages 90-92.
- ↑ Robinson, Tim (Junho de 2005). «The Meccano Set Computers A history of differential analyzers made from children's toys». IEEE Control Systems Magazine. 25 (3): 74–83. doi:10.1109/MCS.2005.1432602. Hartree, D.R. (setembro de 1940), op. cit.
- ↑ Bellis, Mary (15 de maio de 2019). «Biography of Konrad Zuse, Inventor and Programmer of Early Computers». thoughtco.com. Dotdash Meredith. Consultado em 3 de fevereiro de 2021. Cópia arquivada em 13 de dezembro de 2020
- ↑ «Who is the Father of the Computer?». ComputerHope
- ↑ «Analog Computers». Lexikon's History of Computing. 1995. Consultado em 3 de julho de 2006. Arquivado do original em 14 de agosto de 2012
- ↑ Zuse, Horst. «Part 4: Konrad Zuse's Z1 and Z3 Computers». The Life and Work of Konrad Zuse. EPE Online. Consultado em 17 de junho de 2008. Cópia arquivada em 1 de junho de 2008
- ↑ Zuse, Konrad (2010). The Computer – My Life Translated by McKenna, Patricia and Ross, J. Andrew from: Der Computer, mein Lebenswerk (1984) (em inglês). Berlin/Heidelberg: Springer-Verlag. ISBN 978-3-642-08151-4
- ↑ Salz Trautman, Peggy (20 de abril de 1994). «A Computer Pioneer Rediscovered, 50 Years On». The New York Times. Consultado em 15 de fevereiro de 2017. Cópia arquivada em 4 de novembro de 2016
- ↑ Zuse, Konrad (1993). Der Computer. Mein Lebenswerk. (em alemão) 3rd ed. Berlin: Springer-Verlag. ISBN 978-3-540-56292-4
- ↑ «Crash! The Story of IT: Zuse». Consultado em 1 de junho de 2016. Cópia arquivada em 18 de setembro de 2016
- ↑ Rojas, R. (1998). «How to make Zuse's Z3 a universal computer». IEEE Annals of the History of Computing. 20 (3): 51–54. doi:10.1109/85.707574
- ↑ Rojas, Raúl. «How to Make Zuse's Z3 a Universal Computer» (PDF). fu-berlin.de. Consultado em 28 de setembro de 2015. Cópia arquivada (PDF) em 9 de agosto de 2017
- ↑ a b O'Regan, Gerard (2010). A Brief History of Computing (em inglês). [S.l.]: Springer Nature. ISBN 978-3-030-66599-9
- ↑ «notice». Des Moines Register. 15 de janeiro de 1941
- ↑ Arthur W. Burks (1989). The First Electronic Computer. [S.l.]: University of Michigan Press. ISBN 0-472-08104-7. Consultado em 1 de junho de 2019
- ↑ a b c d Copeland, Jack (2006). Colossus: The Secrets of Bletchley Park's Codebreaking Computers. Oxford: Oxford University Press. pp. 101–115. ISBN 978-0-19-284055-4
- ↑ Miller, Joe (10 de novembro de 2014). «The woman who cracked Enigma cyphers». BBC News (em inglês). Consultado em 14 de outubro de 2018. Cópia arquivada em 10 de novembro de 2014
- ↑ Bearne, Suzanne (24 de julho de 2018). «Meet the female codebreakers of Bletchley Park». The Guardian (em inglês). Consultado em 14 de outubro de 2018. Cópia arquivada em 7 de fevereiro de 2019
- ↑ «Bletchley's code-cracking Colossus». BBC (em inglês). Consultado em 24 de novembro de 2021. Cópia arquivada em 4 de fevereiro de 2010
- ↑ «Colossus – The Rebuild Story». The National Museum of Computing. Consultado em 7 de janeiro de 2014. Cópia arquivada em 18 de abril de 2015
- ↑ Randell, Brian; Fensom, Harry; Milne, Frank A. (15 de março de 1995). «Obituary: Allen Coombs». The Independent. Consultado em 18 de outubro de 2012. Cópia arquivada em 3 de fevereiro de 2012
- ↑ Fensom, Jim (8 de novembro de 2010). «Harry Fensom obituary». The Guardian. Consultado em 17 de outubro de 2012. Cópia arquivada em 17 de setembro de 2013
- ↑ Evans 2018, p. 39.
- ↑ Light 1999, p. 459.
- ↑ «Generations of Computer». techiwarehouse.com. Consultado em 7 de janeiro de 2014. Cópia arquivada em 2 de julho de 2015
- ↑ Turing, A. M. (1937). «On Computable Numbers, with an Application to the Entscheidungsproblem». Proceedings of the London Mathematical Society. 2. 42 (1): 230–265. doi:10.1112/plms/s2-42.1.230
- ↑ Copeland, Jack (2004). The Essential Turing. [S.l.: s.n.] Letter by Stanley Frankel to Brian Randell, 1972.
- ↑ Boyer, Robert S.; Moore, J. Strother (maio de 1983). «A Mechanical Proof of the Turing Completeness of Pure Lisp» (PDF). Institute for Computing Science, University of Texas at Austin. Cópia arquivada (PDF) em 22 de setembro de 2017
- ↑ Rauber, Thomas; Rünger, Gudula (2013). Parallel programming: for multicore and cluster systems 2nd ed. [S.l.]: Springer. ISBN 9783642378010
- ↑ Enticknap, Nicholas (1998). «Computing's Golden Jubilee». Resurrection (20). ISSN 0958-7403. Consultado em 19 de abril de 2008. Cópia arquivada em 9 de janeiro de 2012
- ↑ «Early computers at Manchester University». Resurrection. 1 (4). 1992. ISSN 0958-7403. Consultado em 7 de julho de 2010. Cópia arquivada em 28 de agosto de 2017
- ↑ «Early Electronic Computers (1946–51)». University of Manchester. Consultado em 16 de novembro de 2008. Cópia arquivada em 5 de janeiro de 2009
- ↑ Napper, R. B. E. «Introduction to the Mark 1». The University of Manchester. Consultado em 4 de novembro de 2008. Cópia arquivada em 26 de outubro de 2008
- ↑ «Our Computer Heritage Pilot Study: Deliveries of Ferranti Mark I and Mark I Star computers». Computer Conservation Society. Consultado em 9 de janeiro de 2010. Cópia arquivada em 11 de dezembro de 2016
- ↑ Lavington, Simon. «A brief history of British computers: the first 25 years (1948–1973).». British Computer Society. Consultado em 10 de janeiro de 2010. Cópia arquivada em 5 de julho de 2010
- ↑ Lee, Thomas H. (2003). The Design of CMOS Radio-Frequency Integrated Circuits (PDF). [S.l.]: Cambridge University Press. ISBN 978-1-139-64377-1. Consultado em 31 de julho de 2019. Cópia arquivada (PDF) em 9 de dezembro de 2019
- ↑ Puers, Robert; Baldi, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van (2017). Nanoelectronics: Materials, Devices, Applications, 2 Volumes. [S.l.]: John Wiley & Sons. ISBN 978-3-527-34053-8. Consultado em 31 de julho de 2019
- ↑ a b Moskowitz, Sanford L. (2016). Advanced Materials Innovation: Managing Global Technology in the 21st century. [S.l.]: John Wiley & Sons. pp. 165–167. ISBN 978-0-470-50892-3. Consultado em 28 de agosto de 2019
- ↑ Lavington 1998, pp. 34–35.
- ↑ a b Cooke-Yarborough, E. H. (junho de 1998). «Some early transistor applications in the UK». Engineering Science & Education Journal. 7 (3): 100–106. ISSN 0963-7346. doi:10.1049/esej:19980301. Consultado em 7 de junho de 2009. Cópia arquivada em 8 de novembro de 2020 (inscrição necessária)
- ↑ Cooke-Yarborough, E.H. (1957). Introduction to Transistor Circuits. Edinburgh: Oliver and Boyd
- ↑ «1960: Metal Oxide Semiconductor (MOS) Transistor Demonstrated». Computer History Museum. The Silicon Engine: A Timeline of Semiconductors in Computers. Consultado em 31 de agosto de 2019. Cópia arquivada em 27 de outubro de 2019
- ↑ Motoyoshi, M. (2009). «Through-Silicon Via (TSV)». Proceedings of the IEEE. 97 (1): 43–48. ISSN 0018-9219. doi:10.1109/JPROC.2008.2007462
- ↑ Young, Ian (12 de dezembro de 2018). «Transistors Keep Moore's Law Alive». EETimes (em inglês). Consultado em 18 de julho de 2019. Cópia arquivada em 24 de setembro de 2019
- ↑ Laws, David (4 de dezembro de 2013). «Who Invented the Transistor?». Computer History Museum. Consultado em 20 de julho de 2019. Cópia arquivada em 13 de dezembro de 2013
- ↑ a b Hittinger, William C. (1973). «Metal-Oxide-Semiconductor Technology». Scientific American. 229 (2): 48–59. Bibcode:1973SciAm.229b..48H. ISSN 0036-8733. JSTOR 24923169. doi:10.1038/scientificamerican0873-48
- ↑ Malmstadt, Howard V.; Enke, Christie G.; Crouch, Stanley R. (1994). Making the Right Connections: Microcomputers and Electronic Instrumentation. [S.l.]: American Chemical Society. ISBN 978-0-8412-2861-0. Consultado em 28 de agosto de 2019
- ↑ Fossum, Jerry G.; Trivedi, Vishal P. (2013). Fundamentals of Ultra-Thin-Body MOSFETs and FinFETs. [S.l.]: Cambridge University Press. ISBN 978-1-107-43449-3. Consultado em 28 de agosto de 2019
- ↑ Marriott, J.W. (10 de junho de 2019). «Remarks by Director Iancu at the 2019 International Intellectual Property Conference». United States Patent and Trademark Office. Consultado em 20 de julho de 2019. Cópia arquivada em 17 de dezembro de 2019
- ↑ «Dawon Kahng». National Inventors Hall of Fame. Consultado em 27 de junho de 2019. Cópia arquivada em 27 de outubro de 2019
- ↑ «Martin Atalla in Inventors Hall of Fame, 2009». Consultado em 21 de junho de 2013. Cópia arquivada em 19 de setembro de 2019
- ↑ Triumph of the MOS Transistor. Computer History Museum. 6 de agosto de 2010. Consultado em 21 de julho de 2019. Cópia arquivada em 18 de agosto de 2021 – via YouTube
- ↑ "The Hapless Tale of Geoffrey Dummer" Arquivado em 2013-05-11 no Wayback Machine, (n.d.), (HTML), Electronic Product News, acessado em 8 de julho de 2008.
- ↑ Kilby, Jack (2000). «Nobel lecture» (PDF). Stockholm: Nobel Foundation. Consultado em 15 de maio de 2008. Cópia arquivada (PDF) em 29 de maio de 2008
- ↑ The Chip that Jack Built Arquivado em 2015-05-01 no Wayback Machine, (c. 2008), (HTML), Texas Instruments, acessado em 29 de maio de 2008.
- ↑ Jack S. Kilby, Miniaturized Electronic Circuits, United States Patent Office, US Patent 3,138,743, filed 6 de fevereiro de 1959, issued 23 de junho de 1964.
- ↑ Winston, Brian (1998). Media Technology and Society: A History: From the Telegraph to the Internet. [S.l.]: Routledge. ISBN 978-0-415-14230-4. Consultado em 6 de junho de 2020
- ↑ Saxena, Arjun N. (2009). Invention of Integrated Circuits: Untold Important Facts. [S.l.]: World Scientific. ISBN 978-981-281-445-6. Consultado em 28 de agosto de 2019
- ↑ a b «Integrated circuits». NASA. Consultado em 13 de agosto de 2019. Cópia arquivada em 21 de julho de 2019
- ↑ «1959: Practical Monolithic Integrated Circuit Concept Patented». Computer History Museum. Consultado em 13 de agosto de 2019. Cópia arquivada em 24 de outubro de 2019
- ↑ Lojek, Bo (2007). History of Semiconductor Engineering. [S.l.]: Springer Science & Business Media. ISBN 978-3-540-34258-8
- ↑ Bassett, Ross Knox (2007). To the Digital Age: Research Labs, Start-up Companies, and the Rise of MOS Technology. [S.l.]: Johns Hopkins University Press. ISBN 978-0-8018-8639-3. Consultado em 31 de julho de 2019
- ↑ Huff, Howard R.; Tsuya, H.; Gösele, U. (1998). Silicon Materials Science and Technology: Proceedings of the Eighth International Symposium on Silicon Materials Science and Technology. [S.l.]: Electrochemical Society. pp. 181–182. ISBN 978-1-56677-193-1. Consultado em 28 de agosto de 2019
- ↑ a b Kuo, Yue (1 de janeiro de 2013). «Thin Film Transistor Technology—Past, Present, and Future» (PDF). The Electrochemical Society Interface. 22 (1): 55–61. Bibcode:2013ECSIn..22a..55K. ISSN 1064-8208. doi:10.1149/2.F06131if. Consultado em 31 de julho de 2019. Cópia arquivada (PDF) em 29 de agosto de 2017
- ↑ a b «Tortoise of Transistors Wins the Race – CHM Revolution». Computer History Museum. Consultado em 22 de julho de 2019. Cópia arquivada em 10 de março de 2020
- ↑ «1964 – First Commercial MOS IC Introduced». Computer History Museum. Consultado em 31 de julho de 2019. Cópia arquivada em 22 de dezembro de 2015
- ↑ «1968: Silicon Gate Technology Developed for ICs». Computer History Museum. Consultado em 22 de julho de 2019. Cópia arquivada em 29 de julho de 2020
- ↑ a b «1971: Microprocessor Integrates CPU Function onto a Single Chip». Computer History Museum. Consultado em 22 de julho de 2019. Cópia arquivada em 12 de agosto de 2021
- ↑ Colinge, Jean-Pierre; Greer, James C. (2016). Nanowire Transistors: Physics of Devices and Materials in One Dimension. [S.l.]: Cambridge University Press. ISBN 978-1-107-05240-6. Consultado em 31 de julho de 2019
- ↑ «Intel's First Microprocessor—the Intel 4004». Intel Corp. novembro de 1971. Consultado em 17 de maio de 2008. Cópia arquivada em 13 de maio de 2008
- ↑ Federico Faggin, The Making of the First Microprocessor Arquivado em 2019-10-27 no Wayback Machine, IEEE Solid-State Circuits Magazine, Winter 2009, IEEE Xplore
- ↑ a b «7 dazzling smartphone improvements with Qualcomm's Snapdragon 835 chip». 3 de janeiro de 2017. Consultado em 5 de abril de 2019. Cópia arquivada em 30 de setembro de 2019
- ↑ Chartier, David (23 de dezembro de 2008). «Global notebook shipments finally overtake desktops». Ars Technica. Consultado em 14 de junho de 2017. Cópia arquivada em 4 de julho de 2017
- ↑ IDC (25 de julho de 2013). «Growth Accelerates in the Worldwide Mobile Phone and Smartphone Markets in the Second Quarter, According to IDC». Cópia arquivada em 26 de junho de 2014
- ↑ «Google Books Ngram Viewer». books.google.com
- ↑ Alguns computadores, em especial PDAs, consideram a tela (considerada um monitor), também um dispositivo de entrada, sob forma de ecrã táctil.
- ↑ Existem tentativas para resolver essa limitação, e o campo de atuação de aprendizagem de máquina é conhecido na Ciência da Computação como Inteligência Artificial.
- ↑ Ronald J. Leach (27 de janeiro de 2016). Introduction to Software Engineering. [S.l.]: CRC Press. ISBN 978-1-4987-0528-8. Consultado em 26 de novembro de 2022
- ↑ Hong Zhu (22 de março de 2005). Software Design Methodology: From Principles to Architectural Styles. [S.l.]: Elsevier. pp. 47–72. ISBN 978-0-08-045496-2. Consultado em 26 de novembro de 2022
- ↑ Ronald J. Leach (27 de janeiro de 2016). Introduction to Software Engineering. [S.l.]: CRC Press. ISBN 978-1-4987-0528-8. Consultado em 26 de novembro de 2022
- ↑ John Knight (12 de janeiro de 2012). Fundamentals of Dependable Computing for Software Engineers. [S.l.]: CRC Press. ISBN 978-1-4665-1821-6. Consultado em 26 de novembro de 2022
- ↑ Frederick P. Brooks (Jr.) (1975). The Mythical Man-month: Essays on Software Engineering. [S.l.]: Addison-Wesley Publishing Company. ISBN 978-0-201-00650-6. Consultado em 26 de novembro de 2022
- ↑ Ian Sommerville (2007). Software Engineering. [S.l.]: Pearson Education. pp. 4–17. ISBN 978-0-321-31379-9. Consultado em 26 de novembro de 2022
- ↑ «Why do computers crash?». Scientific American (em inglês). Consultado em 3 de março de 2022. Cópia arquivada em 1 de maio de 2018
- ↑ Taylor, Alexander L. III (16 de abril de 1984). «The Wizard Inside the Machine». Time. Consultado em 17 de fevereiro de 2007. Cópia arquivada em 16 de março de 2007
- ↑ Agatha C. Hughes (2000). Systems, Experts, and Computers. [S.l.]: MIT Press. ISBN 978-0-262-08285-3
- ↑ Leiner, Barry M.; Cerf, Vinton G. «A Brief History of the Internet». arXiv:cs/9901011
- ↑ Macmanus, Richard. «Top Trends of 2012: The Continuing Rapid Growth of Mobile». ReadWriteWeb. Consultado em 6 de julho de 2012. Arquivado do original em 6 de julho de 2012
- ↑ II, Joseph D. Dumas (2005). Computer Architecture: Fundamentals and Principles of Computer Design (em inglês). [S.l.]: CRC Press. ISBN 978-0-8493-2749-0. Consultado em 9 de novembro de 2020
Bibliografia
- Bowden, B. V. (1953). Faster than thought. New York, Toronto, London: Pitman publishing corporation
- Berkeley, Edmund (1949). Giant Brains, or Machines That Think. [S.l.]: John Wiley & Sons
- Bromley, Allan G. (1990). «Difference and Analytical Engines». In: Aspray, William. Computing Before Computers (PDF). Ames: Iowa State University Press. pp. 59–98. ISBN 978-0-8138-0047-9. Cópia arquivada (PDF) em 9 de outubro de 2022
- Cohen, Bernard (2000). «Howard Aiken, Portrait of a computer pioneer». Cambridge, Massachusetts: The MIT Press. Physics Today. 53 (3): 74–75. Bibcode:2000PhT....53c..74C. ISBN 978-0-262-53179-5. doi:10.1063/1.883007
- Collier, Bruce (1970). The little engine that could've: The calculating machines of Charles Babbage. [S.l.]: Garland Publishing. ISBN 978-0-8240-0043-1. Consultado em 24 de outubro de 2013. Cópia arquivada em 20 de janeiro de 2007
- Couffignal, Louis (1933). Les machines à calculer; leurs principes, leur évolution. Paris: Gauthier-Villars
- Digital Equipment Corporation (1972). PDP-11/40 Processor Handbook (PDF). Maynard, MA: Digital Equipment Corporation. Consultado em 27 de novembro de 2017. Cópia arquivada (PDF) em 1 de dezembro de 2017
- Swade, Doron D. (fevereiro de 1993). «Redeeming Charles Babbage's Mechanical Computer». Scientific American. 268 (2): 86–91. Bibcode:1993SciAm.268b..86S. JSTOR 24941379. doi:10.1038/scientificamerican0293-86
- Essinger, James (2004). Jacquard's Web, How a hand loom led to the birth of the information age. [S.l.]: Oxford University Press. ISBN 978-0-19-280577-5
- Evans, Claire L. (2018). Broad Band: The Untold Story of the Women Who Made the Internet. New York: Portfolio/Penguin. ISBN 978-0-7352-1175-9. Consultado em 9 de novembro de 2020
- Felt, Dorr E. (1916). Mechanical arithmetic, or The history of the counting machine. Chicago: Washington Institute
- Ifrah, Georges (2001). The Universal History of Computing: From the Abacus to the Quantum Computer. New York: John Wiley & Sons. ISBN 978-0-471-39671-0
- Lavington, Simon (1998). A History of Manchester Computers 2nd ed. Swindon: The British Computer Society. ISBN 978-0-902505-01-8
- Ligonnière, Robert (1987). Préhistoire et Histoire des ordinateurs. Paris: Robert Laffont. ISBN 978-2-221-05261-7
- Light, Jennifer S. (1999). «When Computers Were Women». Technology and Culture. 40 (3): 455–483. JSTOR 25147356. doi:10.1353/tech.1999.0128
- Meuer, Hans; Strohmaier, Erich; Simon, Horst; Dongarra, Jack (13 de novembro de 2006). «Architectures Share Over Time». TOP500. Consultado em 27 de novembro de 2006. Cópia arquivada em 20 de fevereiro de 2007
- Moseley, Maboth (1964). Irascible Genius, Charles Babbage, inventor. London: Hutchinson
- Randell, Brian (1982). «From Analytical Engine to Electronic Digital Computer: The Contributions of Ludgate, Torres, and Bush» (PDF). Consultado em 29 de outubro de 2013. Cópia arquivada (PDF) em 21 de setembro de 2013
- Schmandt-Besserat, Denise (1999). «Tokens: The Cognitive Significance». Documenta Praehistorica. XXVI. Cópia arquivada em 30 de janeiro de 2012
- Schmandt-Besserat, Denise (1981). «Decipherment of the earliest tablets». Science. 211 (4479): 283–285. Bibcode:1981Sci...211..283S. PMID 17748027. doi:10.1126/science.211.4479.283
- Smith, Erika E. (2013). «Recognizing a Collective Inheritance through the History of Women in Computing». CLCWeb: Comparative Literature and Culture. 15 (1): 1–9. doi:10.7771/1481-4374.1972
- Verma, G.; Mielke, N. (1988). Reliability performance of ETOX based flash memories. IEEE International Reliability Physics Symposium
- Zuse, Konrad (1993). The Computer – My life. Berlin: Pringler-Verlag. ISBN 978-0-387-56453-1
Ligações externas
- «O que é um computador?» (PDF)
- «Fotos e história de alguns modelos de computadores» (em inglês)
- Lista Top 500 de 2023 (em inglês)