A publicação dos textos abaixo tem como origem a Wikipédia, a enciclopédia livre, e tem como única finalidade a informação puramente didática, não visando nenhum lucro monetário mas tão somente semear o conhecimento aos amantes do assunto informática. Aqueles que de alguma maneira se sentirem  prejudicados, contate-nos e retiraremos a publicação do site.

Computador

Origem: Wikipédia, a enciclopédia livre.

 Computador é uma máquina capaz de variados tipos de tratamento automático de informações ou processamento de dados. Um computador pode possuir inúmeros atributos, dentre eles armazenamento de dados, processamento de dados, cálculo em grande escala, desenho industrial, tratamento de imagens gráficas, realidade virtual, entretenimento e cultura.

No passado, o termo já foi aplicado a pessoas responsáveis por algum cálculo. Em geral, entende-se por computador um sistema físico que realiza algum tipo de computação. Existe ainda o conceito matemático rigoroso, utilizado na teoria da computação.

Assumiu-se que os computadores pessoais e laptops são ícones da Era da Informação[1] ; e isto é o que muitas pessoas consideram como "computador". Entretanto, atualmente as formas mais comuns de computador em uso são os sistemas embarcados, pequenos dispositivos usados para controlar outros dispositivos, como robôs, câmeras digitais ou brinquedos.

 História

As primeiras máquinas de computar

Pascaline, máquina calculadora feita por Blaise Pascal.

John Napier (1550-1617), escocês inventor dos logaritmos, também inventou os ossos de Napier, que eram tabelas de multiplicação gravadas em bastão, o que evitava a memorização da tabuada.

A primeira máquina de verdade foi construída por Wilhelm Schickard sendo capaz de somar, subtrair, multiplicar e dividir. Essa máquina foi perdida durante a guerra dos trinta anos, sendo que recentemente foi encontrada alguma documentação sobre ela. Durante muitos anos nada se soube sobre essa máquina, por isso, atribuía-se a Blaise Pascal (1623-1662) a construção da primeira máquina calculadora, que fazia apenas somas e subtrações.

A máquina Pascal foi criada com objetivo de ajudar seu pai a computar os impostos em Rouen, França. O projeto de Pascal foi bastante aprimorado pelo matemático alemão Gottfried Wilhelm Leibniz (1646-1726), que também inventou o cálculo, o qual sonhou que, um dia no futuro, todo o raciocínio pudesse ser substituído pelo girar de uma simples alavanca.

Todas essas máquinas, porém, estavam longe de ser um computador de uso geral, pois não eram programáveis. Isto quer dizer que a entrada era feita apenas de números, mas não de instruções a respeito do que fazer com os números.

Babbage

Réplica (parte) do Calculador Diferencial criado por Charles Babbage.

A origem da idéia de programar uma máquina vem da necessidade de que as máquinas de tecer produzissem padrões de cores diferentes. Assim, no século XVIII foi criada uma forma de representar os padrões em cartões de papel perfurado, que eram tratados manualmente. Em 1801, Joseph Marie Jacquard (1752-1834) inventa um tear mecânico, com uma leitora automática de cartões.

A ideia de Jacquard atravessou o Canal da Mancha, onde inspirou Charles Babbage (1792-1871), um professor de matemática de Cambridge, a desenvolver uma máquina de “tecer números”, uma máquina de calcular onde a forma de calcular pudesse ser controlada por cartões.

Tudo começou com a tentativa de desenvolver uma máquina capaz de calcular polinômios por meio de diferenças, o calculador diferencial. Enquanto projetava seu calculador diferencial, a idéia de Jacquard fez com que Babbage imaginasse uma nova e mais complexa máquina, o calculador analítico, máquina com alguns elementos que remetem aos computadores atuais.

Sua parte principal seria um conjunto de rodas dentadas, o moinho, formando uma máquina de somar com precisão de cinquenta dígitos. As instruções seriam lidas de cartões perfurados. Os cartões seriam lidos em um dispositivo de entrada e armazenados, para futuras referências, em um banco de mil registradores. Cada um dos registradores seria capaz de armazenar um número de cinquenta dígitos, que poderiam ser colocados lá por meio de cartões a partir do resultado de um dos cálculos do moinho.

Além disso tudo, Babbage imaginou a primeira máquina de impressão, que imprimiria os resultados dos cálculos, contidos nos registradores. Babbage conseguiu, durante algum tempo, fundos para sua pesquisa, porém não conseguiu completar sua máquina no tempo prometido e não recebeu mais dinheiro. Hoje, partes de sua máquina podem ser vistas no Museu Britânico, que também construiu uma versão completa, utilizando as técnicas disponíveis na época.

Junto com Babbage, trabalhou a jovem Ada Augusta, filha do poeta Lord Byron, conhecida como Lady Lovelace e Ada Lovelace. Ada foi a primeira programadora da história, projetando e explicando, a pedido de Babbage, programas para a máquina inexistente. Ada inventou os conceitos de subrotina, uma seqüência de instruções que pode ser usada várias vezes; de loop, uma instrução que permite a repetição de uma seqüência de instruções, e do salto condicional, instrução que permite saltar para algum trecho do programa caso uma condição seja satisfeita.

Ada Lovelace e Charles Babbage estavam avançados demais para o seu tempo, tanto que até a década de 1940, nada se inventou parecido com seu computador analítico. Até essa época foram construídas muitas máquinas mecânicas de somar destinadas a controlar negócios (principalmente caixas registradoras) e algumas máquinas inspiradas na calculadora diferencial de Babbage, para realizar cálculos de engenharia (que não alcançaram grande sucesso).

A máquina de tabular

O próximo avanço dos computadores foi feito pelo americano Herman Hollerith (1860-1929), que inventou uma máquina capaz de processar dados baseada na separação de cartões perfurados (pelos seus furos). A máquina de Hollerith foi utilizada para auxiliar no censo de 1890, reduzindo o tempo de processamento de dados de sete anos, do censo anterior, para apenas dois anos e meio. Ela foi também pioneira ao utilizar a eletricidade na separação, contagem e tabulação dos cartões.

A empresa fundada por Hollerith é hoje conhecida como International Business Machines, ou IBM.

Os primeiros computadores de uso geral

Z1, computador eletro-mecânico construído por Konrad Zuse.

O primeiro computador eletro-mecânico foi construído por Konrad Zuse (19101995). Em 1936, esse engenheiro alemão construiu, a partir de relês que executavam os cálculos e dados lidos em fitas perfuradas, o Z1. Zuse tentou vender o computador ao governo alemão, que desprezou a oferta, já que não poderia auxiliar no esforço de guerra. Os projetos de Zuse ficariam parados durante a guerra, dando a chance aos americanos de desenvolver seus computadores.

Foi na Segunda Guerra Mundial que realmente nasceram os computadores atuais. A Marinha dos Estados Unidos, em conjunto com a Universidade de Harvard, desenvolveu o computador Harvard Mark I, projetado pelo professor Howard Aiken, com base no calculador analítico de Babbage. O Mark I ocupava 120m³ aproximadamente, conseguindo multiplicar dois números de dez dígitos em três segundos.

Simultaneamente, e em segredo, o Exército dos Estados Unidos desenvolvia um projeto semelhante, chefiado pelos engenheiros J. Presper Eckert e John Mauchly, cujo resultado foi o primeiro computador a válvulas, o Eletronic Numeric Integrator And Calculator (ENIAC)[2] , capaz de fazer quinhentas multiplicações por segundo. Tendo sido projetado para calcular trajetórias balísticas, o ENIAC foi mantido em segredo pelo governo americano até o final da guerra, quando foi anunciado ao mundo.

ENIAC, computador desenvolvido pelo Exército dos Estados Unidos.

No ENIAC, o programa era feito rearranjando a fiação em um painel. Nesse ponto John von Neumann propôs a idéia que transformou os calculadores eletrônicos em “cérebros eletrônicos”: modelar a arquitetura do computador segundo o sistema nervoso central. Para isso, eles teriam que ter três características:

  1. Codificar as instruções de uma forma possível de ser armazenada na memória do computador. Von Neumann sugeriu que fossem usados uns e zeros.
  2. Armazenar as instruções na memória, bem como toda e qualquer informação necessária a execução da tarefa, e
  3. Quando processar o programa, buscar as instruções diretamente na memória, ao invés de lerem um novo cartão perfurado a cada passo.

Visão simplificada da arquitetura de Von Neumann.

Este é o conceito de programa armazenado, cujas principais vantagens são: rapidez, versatilidade e automodificação. Assim, o computador programável que conhecemos hoje, onde o programa e os dados estão armazenados na memória ficou conhecido como Arquitetura de von Neumann.

Para divulgar essa idéia, von Neumann publicou sozinho um artigo. Eckert e Mauchy não ficaram muito contentes com isso, pois teriam discutido muitas vezes com ele. O projeto ENIAC acabou se dissolvendo em uma chuva de processos, mas já estava criado o computador moderno.

Arquitetura de hardware

LEGENDA: 01- Monitor; 02- Placa-Mãe; 03- Processador; 04- Memória RAM; 05- Placas de Rede, Placas de Som, Vídeo, Fax...; 06- Fonte de Energia; 07- Leitor de CDs e/ou DVDs; 08- Disco Rígido (HD); 09- Mouse (Rato); 10- Teclado.

Mesmo que a tecnologia utilizada nos computadores digitais tenha mudado dramaticamente desde os primeiros computadores da década de 1940 (veja história do hardware), quase todos os computadores atuais ainda utilizam a arquitetura de von Neumann proposta por John von Neumann.

Seguindo a arquitetura, os computadores possuem quatro sessões principais, a unidade lógica e aritmética, a unidade de controle, a memória e os dispositivos de entrada e saída. Essas partes são interconectadas por barramentos. A unidade lógica e aritmética, a unidade de controle, os registradores e a parte básica de entrada e saída são conhecidos como a CPU.

Alguns computadores maiores diferem do modelo acima em um aspecto principal - eles têm múltiplas CPUs trabalhando simultaneamente. Adicionalmente, poucos computadores, utilizados principalmente para pesquisa e computação científica, têm diferenças significativas do modelo acima, mas eles não tem grande aplicação comercial.

Processamento

Ver artigo principal: Processamento

O processador (ou CPU) é uma das partes principais do hardware do computador e é responsável pelos cálculos, execução de tarefas e processamento de dados. A velocidade com que o computador executa as tarefas ou processa dados está diretamente ligada à velocidade do processador. As primeiras CPUs eram constituídas de vários componentes separados, mas desde meados da década de 1970 as CPUs vêm sendo manufaturadas em um único circuito integrado, sendo então chamadas microprocessadores.

A unidade lógica e aritmética (ULA) é a unidade central do processador, que realmente executa as operações aritméticas e lógicas entre dois números. Seus parâmetros incluem, além dos números operandos, um resultado, um comando da unidade de controle, e o estado do comando após a operação. O conjunto de operações aritméticas de uma ULA pode ser limitado a adição e subtração, mas também pode incluir multiplicação, divisão, funções trigonométricas e raízes quadradas. Algumas podem operar somente com números inteiros, enquanto outras suportam o uso de ponto flutuante para representar números reais (apesar de possuírem precisão limitada).

A unidade de controle é a unidade do processador que armazena a posição de memória que contém a instrução corrente que o computador está executando, informando à ULA qual operação a executar, buscando a informação (da memória) que a ULA precisa para executá-la e transferindo o resultado de volta para o local apropriado da memória. Feito isto, a unidade de controle vai para a próxima instrução (tipicamente localizada na próxima posição da memória, a menos que a instrução seja uma instrução de desvio informando que a próxima instrução está em outra posição.

A CPU também contém um conjunto restrito de células de memória chamadas registradores, que podem ser lidas e escritas muito mais rapidamente que em outros dispositivos de memória. São usadas frequentemente para evitar o acesso contínuo à memória principal cada vez que um dado é requisitado.

Memória

Ver artigo principal: Memória (computador)

A memória é um dispositivo que permite ao computador armazenar dados por certo tempo. Atualmente o termo é geralmente usado para definir as memórias voláteis, como a RAM, mas seu conceito primordial também aborda memórias não voláteis, como o disco rígido. Parte da memória do computador é feita no próprio processador; o resto é diluído em componentes como a memória RAM, memória cache, disco rígido e leitores de mídias removíveis, como disquete, CD e DVD.

Nos computadores modernos, cada posição da memória é configurado para armazenar grupos de oito bits (chamado de um byte). Cada byte consegue representar 256 números diferentes; de 0 a 255 ou de -128 a +127. Para armazenar números maiores pode-se usar diversos bytes consecutivos (geralmente dois, quatro ou oito). Quando números negativos são armazenados, é utilizada a notação de complemento para dois.

A memória do computador é normalmente dividida entre primária e secundária, havendo também pesquisadores que afirmam haver a memória "terciária".

Memória primária

Ver artigos principais: Memória RAM e Memória ROM

A memória primária é aquela acessada diretamente pela Unidade Lógica e Aritmética. Tradicionalmente essa memória pode ser de leitura e escrita (RAM) ou só de leitura (ROM). Atualmente existem memórias que podem ser classificadas como preferencialmente de leitura, isso é, variações da memória ROM que podem ser regravadas, porém com um número limitado de ciclos e um tempo muito mais alto.

Normalmente a memória primária se comunica com a ULA por meio de um barramento ou canal de dados. A velocidade de acesso a memória é um fator importante de custo de um computador, por isso a memória primária é normalmente construída de forma hierárquica em um projeto de computador. Parte da memória, conhecida como cache fica muito próxima à ULA, com acesso muito rápido. A maior parte da memória é acessada por meio de vias auxiliares.

Normalmente a memória é nitidamente separada da ULA em uma arquitetura de computador. Porém, os microprocessadores atuais possuem memória cache incorporada, o que aumenta em muito sua velocidade.

Memória RAM

Memória RAM de um PC.

A memória RAM (Random Access Memory) é uma sequência de células numeradas, cada uma contendo uma pequena quantidade de informação. A informação pode ser uma instrução para dizer ao computador o que fazer. As células podem conter também dados que o computador precisa para realizar uma instrução. Qualquer célula pode conter instrução ou dado, assim o que em algum momento armazenava dados pode armazenar instruções em outro momento. Em geral, o conteúdo de uma célula de memória pode ser alterado a qualquer momento, a memória RAM é um rascunho e não um bloco de pedra.

As memórias RAM são denominadas genericamente de DRAM (RAM dinâmica) pelo fato de possuírem uma característica chamada refrescamento de memória, que tem a finalidade de regravar os dados armazenados em intervalos regulares de tempo,o que é necessário para a manutenção de seu conteúdo. O tamanho de cada célula, e o número de células, varia de computador para computador, e as tecnologias utilizadas para implementar a memória RAM variam bastante. Atualmente o mais comum é a implementação em circuitos integrados.

Memória ROM

Memória ROM de um PC.

A memória ROM (Read-Only Memory) é aquela que só pode ser lida e os dados não são perdidos com o desligamento do computador. A diferença entre a memória RAM e a ROM é que a RAM aceita gravação, regravação e perda de dados. Mesmo se for enviada uma informação para ser gravada na memória ROM, o procedimento não é executado (esta característica praticamente elimina a criação de vírus que afetam a ROM).

Um software gravado na ROM recebe o nome de firmware. Em computadores da linha IBM-PC eles são basicamente três, que são acessados toda vez que ligamos o computador, a saber: BIOS, POST e SETUP.

Existe uma variação da ROM chamada memória preferencialmente de leitura que permite a re-gravação de dados. São as chamadas EPROM (Erasable Programmable Read Only Memory) ou EEPROM (Electrically Erasable Programmable Read-Only Memory).

Memória secundária

A memória secundária ou memória de massa é usada para gravar grande quantidade de dados, que não são perdidos com o desligamento do computador, por um período longo de tempo. Exemplos de memória de massa incluem o disco rígido e mídias removíveis como o CD-ROM, o DVD, o disquete e o pen drive.

Normalmente a memória secundária não é acessada diretamente pela ULA, mas sim por meio dos dispositivos de entrada e saída. Isso faz com que o acesso a essa memória seja muito mais lento do que o acesso a memória primária. Para isso cada dispositivo encontra-se com um buffer de escrita e leitura para melhoramento de desempenho.

Supostamente, consideramos que a memória terciária está permanentemente ligada ao computador.

Memória terciária

Fita magnética para gravação de dados.

Sistemas mais complexos de computação podem incluir um terceiro nível de memória, com acesso ainda mais lento que o da memória secundária. Um exemplo seria um sistema automatizado de fitas contendo a informação necessária. A memória terciária pode ser considerada um dispositivo de memória secundária ou memória de massa colocado para servir um dispositivo de memória secundária.

As tecnologias de memória usam materiais e processos bastante variados. Na informática, elas têm evoluído sempre em direção de uma maior capacidade de armazenamento, maior miniaturização, maior rapidez de acesso e confiabilidade, enquanto seu custo cai constantemente.

Entretanto, a memória de um computador não se limita a sua memoria individual e física, ela se apresenta de maneira mais ampla, e sem lugar definido (desterritorializada). Temos possibilidades de armazenar em diversos lugares na rede, podemos estar em Cairo e acessar arquivos que foram armazenados em sítios no Brasil.

É crescente a tendência para o armazenamento das informações na memória do espaço virtual, ou o chamado ciberespaço, através de discos virtuais e anexos de e-mails. Isto torna possível o acesso a informação a partir de qualquer dispositivo conectado à Internet.

Entrada e saída

Ver artigo principal: E/S

Mouse

Os dispositivos de entrada e saída (E/S) são periféricos usados para a interação homem-computador. Nos computadores pessoais modernos, dispositivos comuns de entrada incluem o mouse (ou rato), o teclado, o digitalizador e a webcam. Dispositivos comuns de saída incluem a caixa de som, o monitor[3] e a impressora.

O que todos os dispositivos de entrada têm em comum é que eles precisam codificar (converter) a informação de algum tipo em dados que podem ser processados pelo sistema digital do computador. Dispositivos de saída por outro lado, descodificam os dados em informação que é entendida pelo usuário do computador. Neste sentido, um sistema de computadores digital é um exemplo de um sistema de processamento de dados.

Processo este, que consiste basicamente em três fases: Entrada, Processameto e Saída. Entendemos por entrada todo o procedimento de alimentação de informações, que por sua vez serão processadas (fase de processamento) e após isso, são repassadas as respostas ao usuário (saída).

Podemos ter dispositivos que funcionam tanto para entrada como para saída de dados, como o modem e o drive de disquete. Atualmente, outro dispositivo híbrido de dados é a rede de computadores.

Blocos funcionais de um computador.

Barramentos

Para interligar todos esses dispositivos existe uma placa de suporte especial, a placa-mãe, que através de barramentos, fios e soquetes conecta todos os dispositivos. Sua função inclui também a conexão de placas auxiliares que sub-controlam os periféricos de entrada e saída, como a placa de som (conecta-se com a caixa de som), a placa de vídeo (conecta-se com o monitor), placa de rede (conecta-se com a LAN) e o fax-modem (conecta-se com a linha telefônica).

Nota-se que o barramento entre os componentes não constitui uma conexão ponto-a-ponto; ele pode conectar logicamente diversos componentes utilizando o mesmo conjunto de fios. O barramento pode utilizar uma interface serial ou uma interface paralela.

Outros equipamentos adicionais usados em conjunto com a placa-mãe são o dissipador, um pequeno ventilador para resfriar o processador, e a fonte de energia, responsável pela alimentação de energia de todos os componentes do computador.

Arquitetura de software

Instruções

A principal característica dos computadores modernos, o que o distingue de outras máquinas, é que pode ser programado. Isto significa que uma lista de instruções pode ser armazenada na memória e executa posteriormente.

Diagrama de linguagem de programação compilada em linguagem de máquina.

As instruções executadas na ULA discutidas acima não são um rico conjunto de instruções como a linguagem humana. O computador tem apenas um limitado número de instruções bem definidas. Um exemplo típico de uma instrução existente na maioria dos computadores é "copie o conteúdo da posição de memória 123 para a posição de memória 456", "adicione o conteúdo da posição de memória 510 ao conteúdo da posição 511 e coloque o resultado na posição 507" e "se o conteúdo da posição 012 é igual a 0, a próxima instrução está na posição 678".

Instruções são representadas no computador como números - o código para "copiar" poderia ser 007, por exemplo. O conjunto particular de instruções que um computador possui é conhecido como a linguagem de máquina do computador. Na prática, as pessoas não escrevem instruções diretamente na linguagem de máquina mas em uma linguagem de programação, que é posteriormente traduzida na linguagem de máquina através de programas especiais, como interpretadores e compiladores. Algumas linguagens de programação se aproximam bastante da linguagem de máquina, como o assembly (linguagem de baixo nível); por outro lado linguagens como o Prolog são baseadas em princípios abstratos e se distanciam bastante dos detalhes da operação da máquina (linguagens de alto nível).

A execução das instruções é tal como ler um livro. Apesar da pessoa normalmente ler cada palavra e linha em sequência, é possível que algumas vezes ela volte para pontos anteriores do texto de interesse ou passe sessões não interessantes. Da mesma forma, um computador que segue a arquitetura de von Neumann executa cada instrução de forma sequencial, da maneira como foram armazenadas na memória. Mas, através de instruções especiais, o computador pode repetir instruções ou avançá-las até que alguma condição seja satisfeita. Isso é chamado controle do fluxo e é o que permite que o computador realize tarefas repetitivamente sem intervenção humana.

Uma pessoa usando uma calculadora pode realizar operações aritméticas como somar número apertando poucos botões. Mas somar sequencialmente os números de um a mil iria requerer apertar milhares de vezes os botões, com uma alta probabilidade de erro em alguma iteração. Por outro lado, computadores podem ser programados para realizar tal tarefa com poucas instruções, e a execução e extremamente rápida.

Mas os computadores não conseguem pensar, eles somente executam as instruções que fornecemos. Um humano instruído, ao enfrentar o problema da adição explicado anteriormente, perceberia em algum momento que pode reduzir o problema usando a seguinte equação:

,

e chegar na mesma resposta correta com pouco trabalho. Alguns computadores modernos conseguem tomar algumas decisões para acelerar a execução dos programas ao prever instruções futuras e reorganizar a ordem de instruções sem modificar seu significado. Entretanto, os computadores ainda não conseguem determinar instintivamente uma maneira mais eficiente de realizar sua tarefa, pois não possuem conhecimento para tal [4] .

Programas

Ver artigo principal: Programa de computador

Programas são simplesmente grandes listas de instruções para o computador executar, tais com tabelas de dados. Muitos programas de computador contêm milhões de instruções, e muitas destas instruções são executadas repetidamente. Um computador pessoal típico (no ano de 2003) podia executar cerca de dois a três bilhões de instruções por segundo. Os computadores não têm a sua extraordinária capacidade devido a um conjunto de instruções complexo. Apesar de existirem diferenças de projeto com CPU com um maior número de instruções e mais complexas, os computadores executam milhões de instruções simples combinadas, escritas por bons "programadores". Estas instruções combinadas são escritas para realizar tarefas comuns como, por exemplo, desenhar um ponto na tela. Tais instruções podem então ser utilizadas por outros programadores.

Hoje em dia, muitos computadores aparentam executar vários programas ao mesmo tempo, o que é normalmente conhecido como multitarefa. Na realidade, a CPU executa as instruções de um programa por um curto período de tempo e, em seguida, troca para um outro programa e executa algumas de suas instruções. Isto cria a ilusão de vários programas sendo executados simultaneamente através do compartilhamento do tempo da CPU entre os programas. Este compartilhamento de tempo é normalmente controlado pelo sistema operacional. Nos casos em que o computador possui dois núcleos de processamento, cada núcleo processa informações de um programa, diminuindo assim o tempo de processamento.

Sistema operacional

Ver artigo principal: Sistema operacional

Um computador sempre precisa de no mínimo um programa em execução por todo o tempo para operar. Tipicamente este programa é o sistema operacional (ou sistema operativo), que determina quais programas vão executar, quando, e que recursos (como memória e E / S) ele poderá utilizar. O sistema operacional também fornece uma camada de abstração sobre o hardware, e dá acesso aos outros programas fornecendo serviços, como programas gerenciadores de dispositivos ("drivers") que permitem aos programadores escreverem programas para diferentes máquinas sem a necessidade de conhecer especificidades de todos os dispositivos eletrônicos de cada uma delas.

Impactos do computador na sociedade

Visualização gráfica de várias rotas em uma porção da Internet mostrando a escalabilidade da rede

Segundo Pierre Lévy, no livro "Cibercultura", o computador não é mais um centro, e sim um nó, um terminal, um componente da rede universal calculante. Em certo sentido, há apenas um único computador, mas é impossível traçar seus limites, definir seu contorno. É um computador cujo centro está em toda parte e a circunferência em lugar algum, um computador hipertextual, disperso, vivo, fervilhante, inacabado: o ciberespaço em si.

O computador evoluiu em sua capacidade de armazenamento de informações, que é cada vez maior, o que possibilita a todos um acesso cada vez maior a informação. Isto significa que o computador agora representa apenas um ponto de um novo espaço, o ciberespaço. Essas informações contidas em computadores de todo mundo e presentes no ciberespaço, possibilitam aos usuários um acesso a novos mundos, novas culturas, sem a locomoção física. Com todo este armazenamento de textos, imagens, dados, etc.

Houve também uma grande mudança no comportamento empresarial, com uma forte redução de custo e uma descompartimentalização das mesmas. Antes o que era obstante agora é próximo, as máquinas, componentes do ciberespaço, com seus compartimentos de saída, otimizaram o tempo e os custos.

Classificação dos computadores

Computadores podem ser classificados de acordo com a função que exercem ou pelas suas dimensões (capacidade de processamento). A capacidade de processamento é medida em flops.

Quanto à Capacidade de Processamento

  • Microcomputador - Também chamado Computador pessoal ou ainda Computador doméstico. Segundo a Lista Top 10 Flops, chegam atualmente aos 107,58 GFlops[5] (Core i7 980x da Intel).
  • Console ou videogame - Ao mesmo tempo função e capacidade. Não chega a ser um computador propriamente dito, mas os atuais PlayStation 3 e Xbox 360 alcançam 218 e 115 GFlops respectivamente.
  • Mainframe - Um computador maior em tamanho e mais poderoso. Segundo a Lista Top500 de jun/2010, ficam na casa dos TFlops (de 20 a 80 TFlops), recebendo o nome comercial de servidores (naquela lista), que na verdade é a função para a qual foram fabricados e não sua capacidade, que é de mainframe.
  • Supercomputador - Muito maior em dimensões, pesando algumas toneladas e capaz de, em alguns casos, efetuar cálculos que levariam 100 anos para serem calculados em um microcomputador. Seu desempenho ultrapassa 80 TFlops, chegando a 1.750 TFlops (1,75 PFlops)[6] .

Quanto às suas Funções

  • Console ou videogame - Como dito não são computadores propriamente ditos, mas atualmente conseguem realizar muitas, senão quase todas, as funções dos computadores pessoais.
  • Servidor (server) - Um computador que serve uma rede de computadores. São de diversos tipos. Tanto microcomputadores quanto mainframes são usados como servidores.
  • Estação de trabalho (workstation) - Serve um único usuário e tende a possuir hardware e software não encontráveis em computadores pessoais, embora externamente se pareçam muito com os computadores pessoais. Tanto microcomputadores quanto mainframes são usados como estações de trabalho.
  • Sistema embarcado, computador dedicado ou computador integrado (embedded computer) - De menores proporções, é parte integrante de uma máquina ou dispositivo. Por exemplo uma unidade de comando da injeção eletrônica de um automóvel, que é específica para atuar no gerenciamento eletrônico do sistema de injeção de combustível e ignição. Eles são chamados de dedicados pois executam apenas a tarefa para a qual foram programados. Tendem a ter baixa capacidade de processamento, às vezes inferior aos microcomputadores.

História do hardware

Origem: Wikipédia, a enciclopédia livre.

hardware do Computador é um componente essencial no processo de cálculo e armazenamento de dados pois ele é necessário para o processamento e compartilhamento de dados. O primeiro computador que se tem notícia é literalmente duro. Os Fenícios armazenavam peças cerâmicas representando coisas como estoque e grãos em vasilhames, que não eram usados apenas pelo mercador mas pelos contadores e oficiais do governo.

Este texto apresenta os fatos mais significativos no desenvolvimento do hardware do computador.

Primeiros dispositivos para facilitar o cálculo

Ábaco

A Humanidade tem utilizado dispositivos para auxiliar a computação há milênios. Um exemplo é o dispositivo para estabelecer aigualdade pelo peso: as clássicas balanças, posteriormente utilizadas para simbolizar a igualdade na justiça. Um dispositivo mais orientado à aritmética é o ábaco mostrado na figura ao lado.

Primeiras calculadoras mecânicas

Engrenagens

Em 1623 Wilhelm Schickard construiu a primeira calculadora mecânica e assim, tornou-se o pai da era da computação. Como sua máquina utilizava técnicas como engrenagens inicialmente desenvolvidas para relógios, ela foi também chamada de "relógio calculador". Ela foi colocada em uso prático por seu amigo Johannes Kepler, que revolucionou a astronomia.

A máquina de Blaise Pascal (a Pascalina, 1642) e Gottfried Wilhelm von Leibniz (1670) se seguiram.

Leibniz descreveu também o código binário, um ingrediente central de todos os computadores modernos. Entretanto, até 1940, muitos projetos (incluindo a máquina de Babbage do século XIX e mesmo o ENIAC de 1945) foram baseados no sistema decimal, mais difícil de implementar.

John Napier notou que a multiplicação e a divisão de números poderia ser feita pela adição e subtração, respectivamente, de logaritmos destes números. Como números reais podem ser representados pelas distâncias ou '"intervalos"' em uma linha, uma simples operação de translação ou movimentação de dois pedaços de madeira, corretamente marcados com intervalos logaritmos ou lineares, foi utilizada como a régua de cálculo por gerações de engenheiros e outros profissionais de ciências exatas, até a invenção da calculadora de bolso . Assim os engenheiros do programa Apollo para enviar o homem à lua fizeram seus cálculos em réguas de cálculo.

Leitores de cartões perfurados 1801-1940

Joseph M. Jacquard

Herman Hollerith

Em 1801Joseph-Marie Jacquard desenvolveu uma máquina têxtil em que o padrão de saída era controlado por cartões perfurados. O conjunto de cartões poderia ser alterado sem alterar a estrutura da máquina têxtil. Este foi um marco na programação.

Em 1890 o censo dos Estados Unidos utilizou cartões perfurados e máquinas de ordenação desenhadas por Herman Hollerith para controlar os dados do censo da década conforme previsto na constituição. A companhia de Hollerith tornou-se posteriormente o núcleo da IBM.

No século XX, a eletricidade foi utilizada pela primeira vez em máquinas de calcular e ordenar. Em 1940W.J. Eckertdo Thomas J. Watson Astronomical Computing Bureau da Universidade de Columbia publicou o artigo Método dos cartões perfurados na computação científica que era suficientemente avançado para resolver equações diferenciais, multiplicar e dividir números de ponto flutuante, baseado unicamente em cartões perfurados e mesas de conexão similares às utilizadas por operadores de telefonia. Os cálculos astronômicos representaram o estado da arte na computação.

Primeiros projetos de máquinas programáveis 1835-1900s

A característica que define um "Computador Universal" é a "programabilidade" que permite ao computador emular qualquer outra máquina de calcular alterando a sequência de instruções armazenadas. Em 1835 Charles Babbage descreve sua Máquina Analítica. Esta máquina tratava-se de um projeto de um computador programável de propósito geral, empregando cartões perfurados para entrada e uma máquina de vapor para fornecer energia. Enquanto os projetos estavam provavelmente corretos, conflitos com o artesão que construía as partes, e o fim do financiamento do governo, tornaram impossível a sua construção. Ada Lovelace, filha de Lord Byron, traduziu e adicionou anotações ao Desenho da Máquina Analítica de L. F. Manabrea. Ela se tornou uma parceira bem próxima de Babbage. Alguns reivindicam que ela é a primeira programadora de computadores do mundo, entretanto essa reivindicação e a validade de suas outras contribuições são disputadas por muitos. A reconstrução da Máquina Diferencial está em operação desde 1991 no Museu de Ciências de Londres, ela trabalha como Babbage projetou e mostra que ele estava certo na teoria e permite a produção de partes da precisão requerida. Babbage falhou porque seus desenhos eram muito ambiciosos, ele teve problemas com relações de trabalho, e era politicamente inapto.

Outros tipos limitados de computação mecânica 1800s-1900s

No início do século XX as primeiras calculadoras mecânicas, caixas registradoras e máquinas de cálculo em geral foram redesenhadas para utilizar motores elétricos, com a posição das engrenagens representando o estado de uma variável. Pessoas eram empregadas com o cargo de "computador", e utilizavam calculadoras para avaliar expressões. Durante o Projeto Manhattan, o futuro prêmio Nobel Richard Feynman foi o supervisor de uma sala cheia de computadores humanos, muitos deles mulheres, que entendiam as equações diferenciais que estavam sendo solucionadas para a guerra. Mesmo o renomadoStanislaw Marcin Ulam foi encarregado de trabalhar na tradução da matemática em um modelo computacional aproximado da bomba de hidrogênio, depois da guerra.

Durante a Segunda Guerra Mundial, Os planos de Curt Herzstark para uma calculadora mecânica de bolso literalmente salvaram sua vida. Veja: Cliff Stoll, Scientific American"290", no. 1, pp. 92–99. (Janeiro 2004)

Computadores analógicos, pré 1940

Antes da segunda guerra, computadores mecânicos e elétricos computadores analógicos foram considerados o 'estado da arte', e muitos pensavam que eles eram o futuro da computação. Computadores analógicos utilizam variações contínuas de variáveis físicas, como voltagem e corrente, ou a velocidade de rotação de um dispositivo, para representar as quantidades sendo processadas. Um exemplo ingênuo de tal máquina é o Integrator aquático construído em 1936. Ao contrário dos computadores digitais modernos, computadores analógicos não são muito flexíveis, e precisavam ser reconfigurados (reprogramados) manualmente para trocar o problema em que iriam trabalhar.Computadores analógicos tinham uma vantagem frente aos primeiros computadores digitais pois eram capazes de resolver problemas mais complexos. Desde que os programas de computador não eram ainda muito populares nesta época (apesar do trabalho pioneiro de Babbage), As soluções eram freqüentemente hard-coded na forma de gráficos enomogramas, que podiam representar, por exemplo, uma '"analogia"' da solução de problemas como a distribuição de pressão e temperatura em um sistema de aquecimento. Mas à medida que os computadores digitais se tornavam mais rápidos e com mais memória (e.g., RAM ou armazenamento interno), eles praticamente substituíram inteiramente os computadores analógicos, e a profissão de '"programador"' surgiu.

Primeira geração dos computadores digitais 1940

Válvula termiônica de uso geral utilizada nos primeiros computadores

A era da computação moderna começou com uma corrida de desenvolvimento antes e durante a Segunda Guerra Mundial, com circuitos eletrônicos, relés, capacitores e válvulas substituindo seus equivalentes mecânicos e o cálculo digital substituindo o cálculo analógico. Os computadores projetados e construídos nesta época foram chamados computadores de 'primeira geração'. Estes computadores eram normalmente construídos manualmente usando circuitos contendo relés e válvulas, e freqüentemente utilizavam cartões perfurados para a entrada e como a memória de armazenamento principal (não volátil). A memória temporária ou memória de trabalho, era fornecida por linhas de retardo acústicas (que utilizam a propagação do som no tempo como um meio para armazenar dados) ou por tubos de Williams (que utilizam a habilidade dos tubos de raios catódicos da televisão para armazenar dados). Em 1954, memórias de núcleo magnético rapidamente substituíram outras formas de armazenamento temporário, e dominaram até a metade da década de 1970.

Em 1936 Konrad Zuse iniciou a construção das primeiras calculadoras 'Z-series', calculadoras com memória e programáveis (inicialmente de forma limitada). A calculadora de Zuse totalmente mecânica, mas ainda utilizando o sistema binário foi finalizada em 1938, entretanto, nunca funcionou com confiabilidade por problemas de precisão em suas peças.

Em 1937Claude Shannon finalizou sua tese de mestrado no MIT que implementava Álgebra booleana utilizando relés e chaves pela primeira vez na história. Intitulada Uma análise simbólica de relés e circuitos de comutação, A tese de Shannon forneceu as bases para o desenho prático de circuitos digitais.

A máquina seguinte de Zuse, o Z3, foi finalizado em 1941. Ela era baseada em relés telefônicos e funcionou satisfatoriamente. O Z3passou a ser o primeiro computador programável. Em vários aspectos ele era muito semelhante às máquinas modernas, sendo pioneiro em vários avanços, como o uso de aritmética binária, e números de ponto flutuante. A troca do sistema decimal, mais difícil de implementar (utilizado no projeto de Charles Babbage) pelo simples sistema binário tornou a máquina de Zuse mais fácil de construir e potencialmente mais confiável, com a tecnologia disponível naquele tempo. Esta é algumas vezes vista como a principal razão do sucesso de Zuse onde Babbage falhou, entretanto, muitas das máquinas de hoje continuam a ter instruções de ajuste decimal, a aritmética decimal é ainda essencial para aplicações comerciais e financeiras e hardware para cálculos de ponto-flutuante decimais vem sendo adicionado em muitas novas máquinas (O sistema binário continua sendo utilizado em praticamente todas as máquinas).

Os Programas eram armazenados no Z3 em filmes perfurados. Desvios condicionais não existiam, mas na década de 1990 teóricos demonstraram que o Z3 ainda era um computador universal (ignorando sua limitação no seu espaço de armazenamento físico). Em duas patentes de 1937Konrad Zuse antecipou que as instruções da máquina poderiam ser armazenadas no mesmo espaço de armazenamento utilizado para os dados - A primeira idéia do que viria a ser conhecida como a arquitetura de Von Neumann e que seria implementada no EDSAC britânico (1949). Zuse ainda projetou a primeira linguagem de alto nível, o (Plankalkül), em 1945, apesar desta não ser formalmente publicada até 1971, foi implementada pela primeira vez em 2000 pela universidade de Berlin—cinco anos após a morte de Zuse.

Zuse sofreu dramáticas derrotas e perdeu muitos anos durante a Segunda Guerra Mundial quando os bombardeamentos ingleses e americanos destruíram as suas primeiras máquinas. Aparentemente seu trabalho permaneceu em grande parte desconhecida para os engenheiros americanos e britânicos por muito tempo, no entanto pelo menos a IBM estava a par do seu trabalho e financiou sua companhia após a guerra 1946 em troca de permissões em suas patentes.

Em 1940, a calculadora de número complexos, para aritmética de números complexos baseada em relés, foi construída. Foi a primeira máquina a ser acessada remotamente via linha telefônica. Em 1938 John Atanasoff e Clifford Berry da Universidade do Estado de Iowa desenvolveram o Atanasoff–Berry Computer (ABC), um computador com um propósito especial: resolver sistemas de equações lineares, e que empregava capacitores para sua memória. A máquina ABC não era programável, mas era um computador em outros aspectos.

Durante a Segunda Guerra Mundial, os ingleses fizeram esforços significativos em Bletchley Park para quebrar a comunicação militar alemã. O principal sistema de criptografia germânico era feito através de uma máquina codificadora (o Enigma com vária variantes) foi atacado com bombas especialmente projetadas que ajudaram a encontrar possíveis chaves para o Enigma, depois que outras técnicas não tiveram sucesso. Os alemães também desenvolveram uma série de sistemas cifradores (chamados cifradores '"Fish"' pelos ingleses e cifradores de Lorenz pelos alemães) que eram um pouco diferentes do Enigma. Como parte do ataque contra este cifradores, o professor Max Newman e seus colegas (incluindo Alan Turing) ajudaram a projetar o Colossus. O Colossus Mk I foi feito em um curto período de tempo por Tommy Flowers no centro de pesquisa dos correios emDollis Hill, Londres e então enviado para Bletchley Park.

Colossus foi o primeiro dispositivo de computação totalmente eletrônico. Ele utilizava apenas válvulas e não possuía relés. Ele tinha uma fita de papel como entrada e era capaz de fazer desvios condicionais. Nove Colossus Mk II foram construídos (O Mk I foi convertido para Mk II totalizando dez máquinas). Detalhes de sua existência, projeto e uso foram mantidos em segredo até a década de 1970. Dizem que Winston Churchill ordenou pessoalmente a destruição dos computadores em peças não maiores que uma mão humana. Devido a este segredo estes computadores não foram incluídos em muitas histórias da computação. Uma cópia reconstruída de uma das máquinas Colossus existe hoje em exposição em Bletchley Park.

O trabalho de Turing antes da Guerra teve uma grande influência na teoria da computação, e após a Guerra ele projetou, construiu e programou alguns dos primeiros computadores no National Physical Laboratory na Universidade de Manchester. Seu artigo de 1936 incluía uma reformulação dos resultados de 1931 de Kurt Gödel além de uma descrição do que agora é chamado de máquina de Turing, um dispositivo puramente teórico inventado para formalizar a noção da execução de algoritmos, substituindo a complicada linguagem universal de Gödel baseada em aritmética. Computadores modernos têm a capacidade de execução equivalente a uma máquina de Turing universal), exceto por sua memória finita. Esta limitação na memória é algumas vezes vista como uma fronteira que separa computadores de propósito geral dos computadores de propósito especial anteriores.

George Stibitz e colaboradores no Laboratório Bell em Nova Iorque produziram vários computadores baseados em relés no final da década de 1930 e início da década de 1940, mas foram concebidos principalmente para o controle do sistema de telefonia. Seus esforços foram um antecedente de outra máquina eletromecânica americana.

Harvard Mark I (oficialmente, o Calculador Controlado por Sequência) foi um computador de propósito geral eletro-mecânico construído com o financiamento da IBM e com a assistência de alguns funcionários da IBM sob a direção de um matemático de Harvard Howard Aiken. Seu projeto foi influenciado pela máquina analítica. Ele era uma máquina decimal que utilizava rodas de armazenamento em chaves rotativas juntamente com relés. Ele era programado por cartões perfurados, e continha várias calculadoras trabalhando em paralelo. Modelos posteriores continham vários leitores de fita de papel e a máquina podia trocar de leitor dependendo de uma condição. O Desenvolvimento começou em 1939 no laboratório Endicott da IBM; o Mark I foi transferido para a Universidade de Harvard e começou a operar em maio de 1944.

ENIAC fez cálculos de trajetória balística consumindo 160kW.

ENIAC (Electronic Numerical Integrator and Computer), freqüentemente chamado o primeiro computador eletrônico de propósito-geral, validou publicamente o uso da eletrônica para a computação em larga escala. Isto foi crucial para o desenvolvimento da computação moderna, inicialmente devido à enorme vantagem em velocidade e depois pelo potencial de miniaturização. Construído sob a direção deJohn Mauchly e J. Presper Eckert, ele era 1.000 vezes mais rápido que seus contemporâneos. O desenvolvimento e construção do ENIAC iniciou em 1941 e entrou em operação completa 1945. Quando seu projeto foi proposto, muitos pesquisadores acreditavam que milhares de delicadas válvulas iriam queimar com uma freqüência tal que o ENIAC estaria freqüentemente desligado para reparos e não teria uso prático. Ele foi, entretanto, capaz de fazer 100.000 cálculos simples por segundo por horas entre as falhas nas válvulas.

`Programar' o ENIAC, entretanto, significava modificar a sua fiação interna - podemos dizer que isto nem se qualifica como programação, de outro modo qualquer tipo de reconstrução de algum computador limitado pode ser visto como programação. Vários anos depois, entretanto, ele se tornou capaz de executar programas armazenados em uma tabela de funções na memória.

Todas as máquinas daquela data ainda deixavam de possuir o que passou a ser conhecido como a arquitetura de von Neumann: seus programas não eram armazenados no mesmo 'espaço' de memória que os dados e assim os programas não podiam ser manipulados como os dados.

A primeira máquina com a arquitetura von Neumann foi o Manchester "Baby" ou Máquina Experimental em pequena escala, construída na Universidade de Manchester em 1948; ela foi seguida pelo Manchester Mark I em 1949 que funcionava como um sistema completo utilizando o tubo de Williams para a memória e introduziu o uso deregistradores de índice. O outro candidato ao título de "primeiro computador com programas armazenados de forma digital" foi o EDSAC, projetado e construído naUniversidade de Cambridge. Operacional menos de um ano depois do Manchester "Baby", ele era capaz de resolver problemas reais. O EDSAC foi inspirado nos planos do EDVAC, o sucessor do ENIAC; estes planos existiam na época que o ENIAC ficou operacional. Ao contrário do ENIAC, que utilizava processamento paralelo, O EDVAC utilizava uma única unidade de processamento. Seu desenho era simples e foi o primeiro a ser implementado em cada nova onda de miniaturização, e aumento de confiabilidade. Muitos consideram o Manchester Mark I / EDSAC / EDVAC os pais dos quais derivaram a arquitetura de todos os computadores correntes.

O primeiro computador universal programável na Europa foi criado por um time de cientistas sob a direção de Segrey Alekseevich Lebedev do Instituto de Eletrotecnologia deKievUnião Soviética (hoje Ucrânia). O computador MESM (МЭСМPequena máquina eletrônica de cálculo) tornou-se operacional em 1950. Ele tinha cerca de 6.000 válvulas e consumia 25 kW de potência. Ele podia fazer aproximadamente 3.000 operações por segundo.

A máquina da Universidade de Manchester tornou-se o protótipo do Ferranti Mark I. O primeiro Ferranti Mark I foi entregue à Universidade em fevereiro de 1951, e no mínimo nove outros foram vendidos entre 1951 e 1957.

Em junho de 1951, o UNIVAC I (Universal Automatic Computer) foi entregue para o departamento de censo dos Estados Unidos da América. Mesmo tendo sido fabricado porRemington Rand, a máquina é freqüentemente chamada indevidamente de "IBM UNIVAC". Remington Rand vendeu 46 máquinas por mais de US$1 milhão cada. O UNIVAC foi o primeiro computador 'produzido em massa'; todos os predecessores foram feitos em pequena escala. Ele utilizava 5.200 válvulas e consumia 125 kW de potência. Utilizava uma linha de retardo de mercúrio capaz de armazenar 1.000 palavras de 11 dígitos decimais mais o sinal (palavras de 72 bits). Ao contrário das máquinas anteriores ele não utilizava cartões perfurados para entrada e sim uma fita de metal.

Em Novembro de 1951, A empresa J. Lyons começou uma operação semanal de contabilidade de uma padaria com o LEO (Lyons Electronic Office). Esta foi a primeira aplicação comercial em um computador programável.

Ainda em 1951 (Julho), Remington Rand demonstrou o primeiro protótipo do 409, uma calculadora programável com cartões perfurados e plugues. Ele foi instalado inicialmente, no serviço de receita interna de Baltimore, em 1952. Veja em Rowayton Historical Society's timelinemaiores detalhes. O 409 evoluiu para se tornar o Univac 60 e 120 em 1953.

Segunda geração 1947-1960

O grande passo seguinte na história da computação foi a invenção do transístor em 1948. Ele substituiu as frágeis válvulas, que ainda eram maiores e gastavam mais energia, além de serem menos confiáveis. Computadores transistorizados são normalmente referidos como computadores da 'segunda geração' e dominaram o mercado nos anos entre1950 e início de 1960. Apesar de utilizar transistores e placas de circuito impresso estes computadores ainda eram grandes e utilizados principalmente em universidades, órgãos públicos e grandes empresas. O IBM 650 baseado em válvulas de 1954 pesava 900 kg, a fonte de alimentação pesava cerca de 1 350 kg e ambos eram mantidos em gabinetes separados de 1,5 metros por 0,9 metros por 1,8 metros. Ele custava US$500.000 ou podia ser alugado por US$3.500 por mês. Entretanto a memória tinha originalmente apenas 2000 palavras de 10 dígitos, uma limitação que forçava uma programação difícil, para obter resultados. Este tipo de limitação dominou a programação por décadas.

Em 1955Maurice Wilkes inventou a microprogramação, hoje utilizada universalmente na implementação dos projetos de CPU. O conjunto de instruções da CPU é definido por uma programação especial.

Em 1956, A IBM vendeu seu primeiro disco magnético, RAMAC (Random Access Method of Accounting and Control). Ela utilizou 50 discos de metal de 24 polegadas, com 100 trilhas por lado. Ele podia armazenar 5 megabytes de dados a um custo de US$10.000 por megabyte.

A primeira linguagem de programação de alto nível criada, o FORTRAN, foi também desenvolvida na IBM naquela época. (O projeto de Konrad Zuse de 1945 de uma linguagem de alto nível, Plankalkül, não estava implementado ainda.)

Em 1959 a IBM construiu um mainframe baseado em transistores, o IBM 1401, que utilizava cartões perfurados. Ele se tornou um computador de propósito geral popular e 12.000 foram vendidos, tornando-se a mais bem sucedida máquina na história dos computadores. Ele utilizava uma memória principal magnética de 4000 caracteres (mais tarde expandida para 16.000). Muitos aspectos de seu projeto foram baseados no desejo de substituir as máquinas de cartões perfurados da década de 1920 que estavam em uso.

Em 1960 a IBM vendeu o mainframe IBM 1620 baseado em transistores, originalmente utilizava somente fita de papel perfurado, mas foi logo atualizado para cartões perfurados. Ele provou ser um computador científico popular e cerca de 2.000 foram vendidos. Ele utilizava uma memória de núcleo magnético de até 60.000 dígitos decimais.

Ainda em 1960, a DEC lançou o PDP-1 sua primeira máquina destinada ao uso por pessoal técnico em laboratórios e para pesquisa.

Em 1964 a IBM anunciou o System/360, que foi a primeira família de computadores que podia executar o mesmo programa em diferentes combinações de velocidade, capacidade e preço. Ele ainda foi pioneiro no uso comercial de microprogramas, com um conjunto estendido de instruções projetado para processar muitos tipos de dados, não apenas aritméticos. Além disto, ele unificou a linha de produtos da IBM, que anteriormente incluía uma linha "comercial" e uma linha "científica" separadas. O programa fornecido com o System/360 ainda incluía outros avanços, incluindo multiprogramação, novas linguagens de programação e independência dos programas dos dispositivos de entrada e saída. Mais de 14 000 System/360 foram vendidos até 1968.

Ainda em 1964, a DEC criou o PDP-8 uma máquina muito pequena, novamente destinada a técnicos e laboratórios de pesquisa.

Terceira geração e posterior, após 1958

A explosão no uso dos computadores começou com a 'Terceira Geração' de computadores. Estes se baseiam na invenção independente do circuito integrado (ou chip) por Jack St. Claire Kilby e Robert Noyce, que posteriormente levou à invenção do microprocessador por Ted Hoff da Intel.


No final da década de 1950, pesquisadores como George Gamow notaram que longas sequências de nucleotídeos no DNA formavam um código genético, assim surge uma outra forma de codificação ou programação, desta vez com expressões genéticas. Na década de 1960, foi identificado análogos para a instrução de parada halt, por exemplo.

Na virada do milênio, pesquisadores notaram que o modelo descrito pela mecânica quântica poderia ser visto como elementos computacionais probabilísticos, com um poder de computação excedendo qualquer um dos computadores mencionados anteriormente, a Computação quântica.

Placa-mãe

Origem: Wikipédia, a enciclopédia livre.

placa mãe (do inglês: mainboard ou motherboard )é a parte do computador responsável por conectar e interligar todos os componentes do computador, ou seja, processador com memória RAM, disco rígido, placa gráfica, entre outros.1 Além de permitir o tráfego de informação, a placa também alimenta alguns periféricos com a energia elétrica que recebe da fonte do gabinete.2

Tipos de placas-mãe

AT

Placa-mãe com slot ISA (destaque)

AT é a sigla para Advanced Technology.Trata-se de um tipo de placa-mãe já antiga. Seu uso foi constante de 1983 até1996. Um dos fatores que contribuíram para que o padrão AT deixasse de ser usado (e o ATX fosse criado), é o espaço interno reduzido, que com a instalação dos vários cabos do computador (flat cable, alimentação), dificultavam a circulação de ar, acarretando, em alguns casos danos permanentes à máquina devido ao super aquecimento. Isso exigia grande habilidade do técnico montador para aproveitar o espaço disponível da melhor maneira. Além disso, o conector de alimentação da fonte AT, que é ligado à placa-mãe, é composto por dois plugs semelhantes (cada um com seis pinos), que devem ser encaixados lado a lado, sendo que os fios de cor preta de cada um devem ficar localizados no meio. Caso esses conectores sejam invertidos e a fonte de alimentação seja ligada, a placa-mãe será fatalmente queimada. Com o padrão AT, é necessário desligar o computador pelo sistema operacional, aguardar um aviso de que o computador já pode ser desligado e clicar no botão "Power" presente na parte frontal do gabinete. Somente assim o equipamento é desligado. Isso se deve a uma limitação das fontes AT, que não foram projetadas para fazer uso do recurso de desligamento automático. Os modelos AT geralmente são encontrados com slots ISAEISAVESA nos primeiro modelos e, ISA e PCI nos mais novos AT (chamando de baby AT quando a placa-mãe apresenta um tamanho mais reduzido que os dos primeiros modelos AT). Somente um conector "soldado" na própria placa-mãe, que no caso, é o do teclado que segue o padrão DIN e o mouse utiliza a conexão serial. Posição dos slots de memória RAM e soquete de CPU sempre em uma mesma região na placa-mãe, mesmo quando placas de fabricantes diferentes. Nas placas AT são comuns os slots de memória SIMM ou SDRAM, podendo vir com mais de um dos padrões na mesma placa-mãe.Embora cada um destes tenha de ser utilizado individualmente.

ATX

Conectores PS/2

ATX é a sigla para "Advanced Technology Extended". Pelo nome, é possível notar que trata-se do padrão AT aperfeiçoado. Um dos principais desenvolvedores do ATX foi a Intel. O objetivo do ATX foi de solucionar os problemas do padrão AT (citados anteriormente), o padrão apresenta uma série de melhorias em relação ao anterior. Atualmente a maioria dos computadores novos vêm baseados neste padrão. Entre as principais características do ATX, estão:

  • o maior espaço interno, proporcionando uma ventilação adequada,
  • conectores de teclado e mouse no formato mini-DIN PS/2 (conectores menores)
  • conectores serial e paralelo ligados diretamente na placa-mãe, sem a necessidade de cabos,
  • melhor posicionamento do processador, evitando que o mesmo impeça a instalação de placas de

expansão por falta de espaço

Conector de energia ATX (24 furos)

Placa-mãe ATX com slot AGP (destaque)

Quanto à fonte de alimentação, encontramos melhoras significativas. A começar pelo conector de energia ligado à placa-mãe. Ao contrário do padrão AT, não é possível encaixar o plug de forma invertida. Cada orifício do conector possui um formato, que dificulta o encaixe errado. A posição dos slots de memóriaRAM e socket de CPU variam a posição conforme o fabricante. Nestas placas serão encontrados slots de memória SDRAM, Rambus, DDR, DDR2 ou DDR3, podendo vir com mais de um dos padrões na mesma placa-mãe. Geralmente os slots de expansão mais encontrados são os PCIAGPAMR/CNR e PCI-Express. As placas mais novas vêm com entrada na própria placa-mãe para padrões de disco rígido IDE, Serial ATA ou Serial ATA II. Gerenciamento de energia quando desligado o micro, suporta o uso do comando "shutdown", que permite o desligamento automático do micro sem o uso da chave de desligamento encontrada no gabinete. Se a placa mãe for alimentada por uma fonte com padrão ATX é possível ligar o computador utilizando um sinal externo como, por exemplo, uma chamada telefônica recebida pelo modem instalado.

BABY AT

Como o nome leva a deduzir,é uma versão de tamanho reduzido da placa-mãe padrão AT original. Essa redução foi possível com miniaturização de muitos componentes internos.

BTX é um formato de motherboards criado pela Intel e lançado em 2003 para substituir o formato ATX. O objetivo do BTX foi aperfeiçoar o desempenho do sistema e melhorar a ventilação interna. Atualmente, o desenvolvimento desse padrão está parado.

ITX

É um padrão de placa-mãe criado em outubro de 2001 pela VIA Technologies.3

Destinada a computadores altamente integrados e compactados, com a filosofia de oferecer não o computador mais rápido do mercado, mas sim o mais barato, já que na maioria das vezes as pessoas usam um computador para poder navegar na Internet e editar textos.

A intenção da placa ITX é ter tudo on-board, ou seja, vídeo, áudio, modem e rede integrados na placa-mãe.

Outra diferença dessa placa-mãe está em sua fonte de alimentação. Como possui menos periféricos, reduzindo assim o consumo de energia, sua fonte de alimentação pode ser fisicamente menor, possibilitando montar um computador mais compacto.

LPX

As placas padrão LPX possuem uma característica que as torna facilmente identificáveis: Possui uma placa "em pé" que se encaixa em uma conexão específica da placa principal. Nesta placa é encaixada as demais placas do computador. Formato de placas-mãe usado por alguns PCs "de marca" como por exemplo Compaq. Seu principal diferencial é não ter slots. Os slots estão localizados em uma placa a parte, também chamada "backplane", que é encaixada à placa-mãe através de um conector especial. Seu tamanho padrão é de 22 cm x 33 cm. Existe ainda um padrão menor, chamado Mini LPX, que mede 25,4 cm x 21,8 cm. Esse padrão foi criado para permitir PCs mais "finos", já que as placas de expansão em vez de ficarem perpendiculares à placa-mãe, como é o normal, ficam paralelas. Após o padrão de placas-mãe ATX ter sido lançado, uma versão do LPX baseada no ATX foi lançada, chamada NLX. Visualmente falando é fácil diferenciar uma placa-mãe LPX de uma NLX. No padrão LPX o conector para a placa de expansão (backplane) está localizado no centro da placa-mãe e este é um conector parecido com um slot (conector "fêmea"). Já no padrão NLX o conector para a placa de expansão está localizado em uma das laterais da placa, e é um contato de borda contendo 340 pinos, similar ao usado por placas de expansão (ou seja, é um conector "macho").

NLX

A placa-mãe NLX é muito recente e foi criada para microcomputadores que usam processadores Pentiun III e 4. Este design agrupa os melhores recursos do ATX e do LPX.4

Funcionamento

A placa-mãe realiza a interconexão das peças componentes dos microcomputadores. Assim, processadormemóriaplaca de vídeoHDtecladomouse, etc. estão ligados diretamente à placa-mãe. Ela possui diversos componentes eletrônicos (circuitos integrados, capacitores, resistores, etc) e entradas especiais (slots) para que seja possível conectar os vários dispositivos. A manutenção é feita por pessoas treinadas, técnicos e engenheiros da área. Uma forma de remover algumas sujeiras e oxidação simples, que qualquer pessoa pode fazer é a lavagem com algo isopropílico. Mas, também se deve ter um conhecimento mínimo de montagem e manutenção de microcomputadores.

Componentes

Arquitetura de uma placa-mãe típica.

A placa-mãe pode variar conforme o modelo e fabricante, mas há componentes que se mantêm. Vamos destacar os mais importantes componentes de uma placa mãe:

Conectores

Processador

Processador AMD-AthlonXP 1700+

O processador fica encaixado no soquete devendo observar que uma placa-mãe não aceita qualquer tipo de processador, pois é desenvolvida para soquetes específicos. Cada tipo de processador tem características que o diferenciam de outros modelos, a quantidade de pinos, por exemplo, ou o barramento da ponte norte. Assim sendo, a placa-mãe deve ser desenvolvida para aceitar determinados processadores.

Memória RAM

DDR400 de 1GB da Kingston

As placas-mãe mais antigas trabalhavam com tecnologia conhecida com SDR SDRAM e a DDR, atualmente o padrão mais usado é o DDR3.

Com relação à capacidade de instalação de memória RAM nas placas-mãe mais antigas chegavam a 32 MiB ou 64 MiB, entretanto hoje não é dificil achar micros com módulos de memória com 1 GiB ou 2 GiB, podendo chegar em algumas placas para servidor a 128 GiB (embora essas placas sejam muito raras, a possibilidade existe).

BIOS

Flash-ROM BIOS da American Megatrends 1992

BIOS (Basic Input Output System) é um tipo de chip (Flash-ROM) que contém um pequeno software responsável por controlar o uso dos dispositivos e mantém informações de data e hora. O BIOS trabalha junto com o POST (Power On Self Test), um software que testa os componentes do micro em busca de eventuais erros. Podemos alterar as configurações de hardware através do Setup, umainterface também presente na Flash-ROM.

Bateria

Bateria de Lítio CR2032 3V

bateria interna do tipo Lítio(bateria de lítio) CR2032 tem a função de manter as informações da Flash-ROM (EEPROM) armazenadas enquanto o computador está desligado (somente em placas-mãe antigas, nas atuais sua principal função é manter o relógio interno funcionando). A bateria de lítio tem voltagem de três volts e é para manter funcionando sem atrasar o relógio e outros componentes como as informações gravadas na BIOS.

Chipset

Southbridge da placa-mãe ASUS P4P800-E

Northbridge da placa-mãe ASUS P4P800-E

Chipset é um chip (ou conjunto de chips) responsável pelo controle de diversos dispositivos de entrada e saída como o barramento de comunicação do processador, o acesso à memória, o acesso ao HD, periféricos on-board e off-board, comunicação do processador com a memória RAM e entre outros componentes da placa-mãe. Geralmente, é dividido em southbridge e northbridge.

  • northbridge faz a comunicação do processador com as memórias, através do barramento de comunicação externa do processador, e com os barramentos de alta velocidade AGP e PCI Express. Como ele faz o trabalho mais pesado, geralmente requer um dissipador de calor devido ao seu aquecimento elevado.
  • southbridge geralmente é responsável pelo controle de dispositivos de entrada ou saída (I/O) como as interfaces IDE que ligam os HDs, os drives de CD-ROM, drives de DVD-ROM ao processador. Controlam também as interfaces Serial ATA. Geralmente cuidam também do controle de dispositivos on-board como o som.

Slots de expansão

placa de rede 100Mbit tipo PCI da NIC

Foto do adaptador gráfico tipoPCI Express Gigabyte com um chipset NVIDIA (Geforce 6200TC)

Algumas tecnologias foram desenvolvidas para dar maior flexibilidade aos computadores pessoais uma vez que cada cliente pretende utiliza-lo para um fim específico.

O barramento PCI ou (Peripheral Component Interconnect) é uma tecnologia para conectar diferentes periféricos na Placa-mãe. Veja maiores detalhes no artigo Peripheral Component Interconnect.

As placas-mãe mais antigas dispunham de outras tecnologias leia os artigos para saber mais: barramento ISA,barramento EISAbarramento VESA.

O barramento AGP ou (Accelerated Graphics Port) é uma tecnologia de barramento usada principalmente por placas de vídeo. As placas AGP excedem um pouco em tamanho as placas PCI. A tecnologia AGP já está sendo substituída pelo barramento PCI Express. A tecnologia PCI Express conta com um recurso que permite o uso de uma ou mais conexões seriais. Veja mais no artigo PCI Express.

Controladores

  • On-board: como o próprio nome diz, o componente on-board vem diretamente conectado aos circuitos da placa mãe, funcionando em sincronia e usando capacidade do processador e memória RAM quando se trata de vídeo, som, modem e rede. Tem como maior objetivo diminuir o preço das placas ou componentes mas, em caso de defeito o dispositivo não será recuperável, no caso de modemAMR, basta trocar a "placa" do modem AMR com defeito por outra funcionando, pois, este é colocado em um slot AMR na placa-mãe. São exemplos de circuitos on-board: vídeo, modem, som e rede.
  • Off-board: são os componentes ou circuitos que funcionam independentemente da placa mãe e por isso, são separados, tendo sua própria forma de trabalhar e não usando o processador, geralmente, quando vídeo, som, modem ou rede, o dispositivo é "ligado" a placa-mãe usando os slots de expansão para isso, têm um preço mais elevado que os dispositivos on-board, sendo quase que totalmente o contrário em todos os aspectos do tipo on-board, ou seja, praticamente todo o processamento é realizado pelo próprio chipset encontrado na placa do dispositivo.
  • Se voce chegou até aqui, saiba que não leu nem a décima parte do universo INFORMÁTICA . Continue pesquisando na WEB . Milhões de assuntos referentes espalham-se por ela. O saber não tem limites....