Docsity
Docsity

Prepare-se para as provas
Prepare-se para as provas

Estude fácil! Tem muito documento disponível na Docsity


Ganhe pontos para baixar
Ganhe pontos para baixar

Ganhe pontos ajudando outros esrudantes ou compre um plano Premium


Guias e Dicas
Guias e Dicas

Apostilas Discos Rigidos, Notas de estudo de Informática

- - - - - - -

Tipologia: Notas de estudo

Antes de 2010
Em oferta
30 Pontos
Discount

Oferta por tempo limitado


Compartilhado em 07/04/2008

will-tashibana-11
will-tashibana-11 🇧🇷

4

(1)

1 documento

1 / 57

Discount

Em oferta

Documentos relacionados


Pré-visualização parcial do texto

Baixe Apostilas Discos Rigidos e outras Notas de estudo em PDF para Informática, somente na Docsity! MANUAL DO DISCO RÍGIDO - BRINDE DADO NO KITHD POR KAMIKAZI ESTE MANUAL NÃO PODE SER VENDIDO Discos Rígidos O Hard Disk, ou simplesmente Disco Rígido, é um sistema de armazenamento de alta capacidade, que por não ser volátil, é destinado ao armazenamento de arquivos e programas. Apesar de não parecer à primeira vista, o HD é um dos componentes que compõe um PC, que envolve mais tecnologia. Neste capítulo, vamos examinar o funcionamento dos discos rígidos, tanto a nível físico, quanto a nível lógico. Sem dúvida, o disco rígido foi um dos componentes que mais evoluiu na história da computação. O primeiro disco rígido foi construído pela IBM em 1957, e era formado por um conjunto de nada menos que 50 discos de 24 polegadas de diâmetro, com uma capacidade total de 5 Megabytes, algo espantoso para a época. Comparado com os discos atuais, este pioneiro custava uma verdadeira fortuna: 35 mil dólares. Porém, apesar de inicialmente, extremamente caros, os discos rígidos foram tornando-se populares nos sistemas corporativos, pois fomeciam um meio rápido de armazenamento de dados. Este primeiro disco rígido, foi chamado de RAMAC 350 e, posteriormente apelidado de Winchester, termo muito usado ainda hoje para designar HDs de qualquer espécie. Winchester era um modelo de espingarda de dois canos, na época muito popular nos EUA. Alguém então relacionou isso com o fato do RAMAC ser composto por vários discos, surgindo o apelido. Com o passar do tempo, os discos foram crescendo em capacidade, diminuindo em tamanho, ganhando em confiabilidade e tornando-se mais baratos. Os primeiros discos rígidos usados em computadores pessoais, no início da década de 80, eram compostos por discos de 5.25 polegadas de diâmetro, possuíam capacidades entre 5 e 20 MB e custavam a partir de 1500 dólares, enquanto que hoje em dia, cerca de 20 anos depois, é possível encontrar discos de 13 GB ou mais, por menos de 150 dólares, mesmo aqui no Brasil. MANUAL DO DISCO RÍGIDO - BRINDE DADO NO KITHD POR KAMIKAZI Como funciona um Disco Rígido Dentro do disco rígido, os dados são gravados em discos magnéticos, chamados em Inglês de platters. O nome “disco rígido” vem justamente do fato dos discos intemos serem lâminas metálicas extremamente rígidas. Os platters são compostos de duas camadas. A primeira é chamada de substrato, e nada mais é do que um disco metálico, geralmente feito de ligas de alumínio. Este disco é polido em salas limpas, para que se torne perfeitamente plano. A fim de permitir o armazenamento de dados, este disco é recoberto por uma segunda camada, agora de material magnético. A aplicação da camada magnética é feita dos dois lados do disco, e pode ser feita de duas maneiras diferentes. A primeira chama-se eletroplating e é bem semelhante à eletrólise usada para banhar bijuterias à ouro. Esta técnica não permite uma superfície muito uniforme, e por isso, só é usada em HDs antigos, em geral os com menos de 500 MB. A técnica usada atualmente é muito mais precisa, chama-se sputtering e usa uma tecnologia semelhante à usada para soldar os transístores dos processadores. Como a camada magnética tem apenas alguns mícrons de espessura, é recoberta por uma fina camada protetora, que oferece alguma proteção contra pequenos impactos. Esta camada é importante, pois apesar dos discos serem encapsulados em salas limpas, eles internamente contêm ar, com pressão semelhante à ambiente. Como veremos adiante, não seria possível um disco rígido funcionar caso internamente houvesse apenas vácuo. Os HDs são hermeticamente fechados, a fim de impedir qualquer contaminação proveniente do meio externo, porém, nunca é possível manter um ambiente 100% livre de partículas de poeira. Um pequeno dano na camada protetora não interfere no processo de leitura/gravação, que é feito de forma magnética. Os discos são montados em um eixo também feito de alumínio, que deve ser sólido o suficiente para evitar qualquer vibração dos discos, mesmo a altas rotações. Este é mais um componente que passa por um processo de polimento, já que os discos devem ficar perfeitamente presos e alinhados. Finamente, temos o motor de rotação, responsável por manter uma rotação constante. O motor é um dos maiores responsáveis pela durabilidade do disco rígido, pois a maioria das falhas graves provêm justamente do motor. Os HDs mais antigos utilizavam motores de 3,600 rotações por minuto, enquanto que atualmente, são utilizados motores de 5,600 ou 7,200 RPM, que podem chegar a mais O tamanho dos discos magnéticos determina o tamanho físico do disco rígido. Atualmente são utilizados discos de 3.5 polegadas de diâmetro, mas também é possível encontrar alguns modelos mais antigos de 5.25 polegadas (quase do tamanho de um drive de CD-ROM), como os modelos Quantum Bigfoot, muito vendidos até pouco tempo atrás. Estes discos maiores, porém, não são uma boa opção, pois são bem mais lentos e mais passíveis de problemas que seus irmãos menores. Isso se deve à vários fatores: sendo os platters maiores, não se consegue fazê-los girar a uma velocidade muito alta, ocasionando lentidão no acesso aos dados gravados. Devido à superfície dos discos ser muito maior, as cabeças de leitura demoram muito mais tempo para conseguir localizar os dados, justamente devido à maior distância a ser percorrida. Devido ao maior esforço, o mecanismo de rotação também é mais passível de defeitos e os discos magnéticos são mais vulneráveis a impactos e vibrações. Finalmente, por serem maiores, os discos acabam tornando-se mais caros de se produzir . Existem também discos de 2.5 polegadas, destinados a notebooks, devido ao seu tamanho reduzido e baixo consumo de energia. Existem também, discos miniaturizados, destinados à aparelhos menores, como handhelds, palmtops, câmeras digitais, coletores de dados etc. que chegam a ser menores que uma moeda de 1 real. Materiais utilizados Existem pesquisas para desenvolver materiais mais baratos que as ligas de alumínio usadas atualmente, mas ao mesmo tempo rígidos o suficiente para substitui-las, o que poderia baratear substancialmente os discos rígidos. Ha muito os grandes fabricantes vêm fazendo pesquisas, a maioria com compostos de vidro ou plástico. A IBM foi a pioneira com os discos de vidro, com seu Deskstar 75GXP. A tecnologia desenvolvida pela IBM oferece até mesmo, algumas vantagens sobre os discos de alumínio tradicionais, já que o vidro é uma material mais duro, e justamente por isso, os discos são mais estáveis à altas rotações. Porém, os discos da IBM ainda são mais caros que modelos equivalentes com discos de alumínio. A Samsung vem trabalhando atualmente em discos de compostos plásticos, visando produzir discos de baixo custo. Porém, ao contrário do vidro, o plástico é um material muito pouco resistente, e os discos muito mais susceptíveis a deformações a altas temperaturas e altas rotações. É de se esperar que se chegarem a ser lançados, os discos de plástico sejam bem mais baratos que os de alumínio ou vidro, mas ao mesmo tempo, mais lentos e menos duráveis. Trilhas, Setores e Cilindros Para organizar o processo de gravação e leitura dos dados gravados no disco rígido, a superfície dos discos é dividida em trilhas e setores. As trilhas são círculos concêntricos, que começam no final do disco e vão se tornando menores conforme se aproximam do centro. Cada trilha recebe um número de endereçamento, que permite sua localização. A trilha mais externa recebe o número O e as seguintes recebem os números 1, 2,3, e assim por diante. Para facilitar ainda mais o acesso aos dados, as trilhas se dividem em setores, que são pequenos trechos onde são armazenados os dados, sendo que cada setor guarda 512 bytes de informações. Um disco rígido atual possui até 900 setores em cada trilha (o número varia de acordo com a marca e modelo), possuindo sempre mais de 3000 trilhas. Para definir o limite entre uma trilha e outra, assim como, onde termina um setor e onde começa o próximo, são usadas marcas de endereçamento, pequenas áreas com um sinal magnético especial, que orientam a cabeça de leitura, permitindo à controladora do disco localizar os dados desejados. Em HDs IDE estas marcas são feitas apenas uma vez, durante a fabricação do disco, e não podem ser apagadas via software. Existem alguns programas como o Norton Calibrate, que prometem uma formatação física não destrutiva, regravando as marcas de orientação o que, segundo os manuais, melhoraria a confiabilidade do disco. Entretanto, a grande maioria dos discos atuais não permite este tipo de regravação, também por que ela não é necessária. Ao rodar estes programas, apesar de ser mostrado um indicador de progresso, não será feito absolutamente nada. Além das trilhas e setores, temos também as faces de disco. Um HD é formado internamente por vários discos empilhados, sendo o mais comum o uso de 2 ou 3 discos. Em geral, apenas HDs de grande capacidade utilizam 4 ou mais discos. Assim como num disquete, podemos usar os dois lados do disco para gravar dados, cada lado passa então a ser chamado de face. Em um disco rígido com 2 discos por exemplo, temos 4 faces. Como uma face é isolada da outra, temos num disco rígido várias cabeças de leitura, uma para cada face. Apesar de possuirmos várias cabeças de leitura num disco rígido, elas não se movimentam independentemente, pois são todas presas à mesma peça metálica, chamada braço de leitura. O braço de leitura é uma peça triangular, que pode se mover horizontalmente. Para acessar um dado contido na trilha 982 da face de disco 3, por exemplo, a controladora do disco ativa a cabeça de leitura responsável pelo disco 3 e a seguir, ordena ao braço de leitura que se dirija à trilha correspondente. Não é possível que uma cabeça de leitura esteja na trilha 982, ao mesmo tempo que outra esteja na trilha 5631, por exemplo, justamente por seus movimentos não serem independentes. Já que todas as cabeças de leitura sempre estarão na mesma trilha de seus respectivos discos, deixamos de chamá-las de trilhas e passamos a usar o termo “cilindro”. Um cilindro nada mais é do que o conjunto de trilhas com o mesmo número nos vários discos. Por exemplo, o cilindro 1 é formado pela trilha 1 de cada face de disco, o cilindro 2 é formado pela trilha 2 de cada face, e assim por diante. Zoned Bit Recording (ZBR) A trilha mais externa de um disco rígido possui mais que o dobro de diâmetro da trilha mais interna e, consequentemente, possui capacidade para armazenar muito mais dados. Porém, nos primeiros discos rígidos, assim como nos disquetes, todas as trilhas do disco, independentemente de seu diâmetro, possuem o mesmo número de setores, fazendo com que nas trilhas mais externas, os setores ocupem um espaço muito maior do que os setores das trilhas mais internas. Temos então um grande espaço desperdiçado, pois é preciso nivelar por baixo, fazendo com que todas as trilhas possuam o mesmo número de setores permitido pelas trilhas mais internas, acabando por desperdiçar enormes quantidades de espaço nas primeiras trilhas do disco. O recurso de Zoned bit Recording permite variar a quantidade de setores por trilha, de acordo com o diâmetro da trilha a ser dividida, permitindo uma organização mais racional do espaço em disco e permitindo aumentar a densidade de gravação. A quantidade de setores em cada trilha é definida durante a formatação física do disco rígido, feita no final do processo de fabricação. A seguir estão dois esquemas que ilustram dois discos, um mais antigo, que não utiliza o ZBR, e outro mais moderno que utiliza este recurso. Observe que a trilha mais interna do disco possui o mesmo número de setores, mas a trilha mais externa possui o dobro de setores no disco com ZBR. As demais trilhas possuem números intermediários, de acordo com sua posição no disco e seu diâmetro. Densidade Para criar um disco rígido de maior capacidade, podemos usar mais discos no mesmo HD, usar discos maiores, ou aumentar a densidade de gravação dos discos. Simplesmente aumentar a quantidade de discos dentro do disco rígido, de 3 para 6 discos por exemplo, aumentaria apenas a capacidade do disco rígido, mas não sua performance. Caso aumentássemos o tamanho dos discos de 3.5 polegadas para 5.25 A divisão do disco em trilhas, setores e cilindros é chamada de formatação de baixo nível, ou formatação física. Os discos mais antigos, padrão ST-506 e ST-412 (que há mais de uma década deixaram de ser usados, sendo substituídos pelos discos padrão IDE e SCSI), eram muito mais simples que os atuais, permitindo que a formatação física fosse feita pelo próprio usuário através do Setup. Inclusive, estes discos precisavam ser periodicamente reformatados fisicamente. Isso acontecia por um problema simples: quando lidos pela cabeça de leitura, os setores do disco esquentavam e se expandiam, esfriando e contraindo-se logo em seguida. Esta expansão e contração da superfície do disco, acabava por alterar a posição das trilhas, causando desalinhamento e dificultando a leitura dos dados pela cabeça magnética, sendo necessária uma nova formatação física para que as trilhas, setores e cilindros, voltassem às suas posições iniciais. Para piorar, nesses discos obsoletos era utilizado um motor de passo para movimentar as cabeças eletromagnéticas que, por não ser completamente preciso, sempre acabava causando algum desalinhamento também. Os HDs IDE e SCSI, usados atualmente, já são muito mais complexos que os discos antigos, sendo quase impossível determinar sua disposição de trilhas, setores e cilindros para possibilitar uma formatação física. Eles também não possuem o problema de desalinhamento, de modo que neles a formatação física é feita somente uma vez na fábrica. Qualquer tentativa indevida de formatar fisicamente um disco moderno simplesmente não surtirá efeito, podendo em alguns casos raros, até mesmo inutilizar o disco. Concluindo, todos os HDs do padrão IDE ou SCSI não precisam ser formatados fisicamente, não sendo aconselhada qualquer tentativa. Existem alguns programas, como o Ontrack Disk Manager ou o Maxtor Low Level Format, que são usados por alguns usuários como formatadores físicos. Na verdade, em sua maioria estes programas são simplesmente ferramentas de diagnóstico e correção de erros, na mesma linha do Scandisk, apenas com alguns recursos a mais, que checam o disco marcando setores defeituosos, permitindo também visualizar muitos outros erros lógicos no disco e corrigilos. De qualquer maneira, a ação destes programas é apenas a nível lógico. Outros programas como o “Zero Fill”, fazem um tipo de formatação irreversível, preenchendo todos os setores do disco com bits 0. A única diferença deste tipo de formatação, para a feita pelo comando “Format”, é que (pelo menos em teoria) não é possível recuperar nenhum dos dados anteriormente gravados no disco. 10 Finalmente, temos alguns programas antigos, assim como a opção de “Low Level Format” encontrada no Setup de placas mãe antigas, destinada a formatar fisicamente os antigos HDs padrão MFM e RLL. Quando usado em um HD IDE ou SCSI, este tipo de formatação simplesmente não funciona. Quando muito é apagado o Defect Map e o setor de Boot do HD, desfazendo a formatação lógica do disco e causando a perda dos dados gravados, sem entretanto, alterar a formatação física. Algumas pessoas tentam usar placas mãe mais antigas, que possuem no Setup a opção de formatação de baixo nível para “formatar fisicamente” seus discos rígidos IDE a fim de eliminar setores danificados no disco. Este procedimento, além de poder causar danos ou mesmo a inutilização do disco rígido, não traz nenhuma vantagem. Um setor danificado é uma pequena falha na superfície magnética do disco rígido, onde não se pode gravar dados com segurança. Estes danos na superfície do HD podem surgir devido a algum impacto forte, ou mesmo devido ao desgaste da mídia magnética, o que costuma ocorrer em HDs com muito uso. Quando rodamos algum utilitário de diagnóstico do disco rígido, como o Scandisk, que acompanha o Windows 95 ou 98, são testados todos os setores do disco rígido, e aqueles que estão danificados, são marcados como defeituosos numa área reservada do disco chamada de “Defect Map”, para que não sejam mais usados. Os setores danificados são comunmente chamados de “bad-blocks”. Estes setores são marcados como defeituosos justamente por apresentarem tendência à corrupção dos dados gravados. Tentar apagar o Defect Map, faria apenas com que estes setores fossem novamente vistos como bons pelo sistema operacional. Esta tentativa desesperada não soluciona o problema, simplesmente faria com que as áreas danificadas do disco, antes marcadas, voltem a ser utilizadas, diminuindo a confiabilidade do disco Sistema de Arquivos Após a formatação física, temos um HD dividido em trilhas, setores e cilindros. Porém, para que este disco possa ser reconhecido e utilizado pelo sistema operacional, é necessária uma nova formatação, chamada de formatação lógica. A formatação lógica consiste em escrever no disco a estrutura do sistema de arquivos utilizado pelo sistema operacional. Um sistema de arquivos é um conjunto de estruturas lógicas e de rotinas, que permitem ao sistema operacional controlar o acesso ao disco rígido. Diferentes sistemas operacionais usam diferentes sistemas de arquivos. Para ilustrar este quadro, podemos imaginar que numa empresa tenhamos duas secretárias, ambas com a função de organizar vários documentos, de modo que possam 1 localizar qualquer um deles com facilidade, sendo que ambas trabalham separadamente. Cada uma, iria então, organizar os documentos da maneira que achasse pessoalmente mais conveniente, e provavelmente uma não entenderia a forma de organização da outra. Do mesmo modo que as secretárias, os sistemas operacionais organizam o disco do modo que permita armazenar e acessar os dados de maneira mais eficiente, de acordo com os recursos, limitações e objetivos do sistema. Diferentes sistemas operacionais existem com diferentes propósitos. O Windows 98, por exemplo, é destinado basicamente para uso doméstico, tendo como prioridade a facilidade de uso e a compatibilidade. Sistemas baseados no Unix já têm como prioridade a estabilidade e segurança. Claro que com propósitos tão diferentes, estes sistemas usam de diferentes artifícios para organizar os dados no disco, de modo a melhor atender seus objetivos. Depois destas várias páginas de explicações técnicas, talvez você esteja achando que este é um processo difícil, mas é justamente o contrário. Para formatar um disco a ser utilizado pelo Windows 98, por exemplo, precisamos apenas dar boot através de um disquete, e rodar o programa FDISK, seguido do comando FORMAT C: (ou a letra da unidade a ser formatada). Outros sistemas operacionais algumas vezes incluem até mesmo “Wizzards”, que orientam o usuário sobre a formatação lógica do disco durante o processo de instalação. Os sistemas de arquivos mais usados atualmente, são: a FAT16, compatível com o DOS e todas as versões do Windows, a F AT32, compatível apenas com o Windows 98 e Windows 95 OSR/2 (uma versão “debugada” do Windows 95, com algumas melhorias, vendida pela Microsoft apenas em conjunto com computadores novos), o NTES, compatível com o Windows NT, o EXT2, usada pelo Linux, e o HPFS compatível com o OS/2 e versões antigas do Windows NT. FAT 16 Este é o sistema de arquivos utilizado pelo MS-DOS, incluindo o DOS 7.0, e pelo Windows 95, sendo compatível também com o Windows 98. Este sistema de arquivos adota 16 bits para o endereçamento de dados, permitindo um máximo de 65526 clusters, que não podem ser maiores que 32 KB. Esta é justamente a maior limitação da FAT 16: como só podemos ter 65 mil clusters com tamanho máximo de 32 KB cada, podemos criar partições de no máximo 2 Gigabytes utilizando este sistema de arquivos. Caso tenhamos um HD maior, será necessário dividi-lo em duas ou mais partições. O 12 para outros sistemas de arquivos, como NTFS, EXT2 (do Linux), e outros. O Partition Magic já existe em Português, podendo ser adquirido em lojas de informática. Para mais informações, basta visitar o site nacional da Power Ques em, http://www.powerquest.com.br Por fim, existe também um programa da Microsoft chamado CVT, que converte um partição FAT16 para FAT32, sem perda de dados. O CVT pode ser copiado gratuitamente do site da Microsoft na Internet, no endereço http://www.microsoft.com . Se você está usando o Windows 98, será muito mais fácil, pois este sistema acompanha um conversor, que apesar de não ter todos os recursos do Partition Magic, faz o trabalho sem perda de dados. O conversor para FAT 32 está na pasta ferramentas de sistema, dentro do menu iniciar, junto com o Scandisk e o Defrag. VEAT A FAT 16 usada pelo DOS, possui uma grave limitação quanto ao tamanho dos nomes de arquivos, que não podem ter mais que 11 caracteres, sendo 8 para o nome do arquivo e mais 3 para a extensão, como em “formular.doc”. O limite de apenas 8 caracteres é um grande inconveniente, o “Boletim da 8º reunião anual de diretoria”, por exemplo, teria de ser gravado na forma de algo como “8reandir.doc”, certamente um nome pouco legível. Sabiamente, a Microsoft decidiu eliminar esta limitação no Windows 95. Para conseguir derrubar esta barreira, e ao mesmo tempo continuar usando a FAT 16, evitando os custos de desenvolvimento, e os problemas de incompatibilidade que seriam gerados pela adoção de um novo sistema de arquivos (o Windows 95 original era compatível apenas com a FAT 16), optou-se por “remendar” a FAT 16, com um novo sistema chamado VFAT. Através do VFAT, arquivos com nomes longos são gravados no diretório raiz respeitando o formato 8.3 (oito letras e uma extensão de até 3 caracteres), sendo o nome verdadeiro armazenado numa área reservada. Se tivéssemos dois arquivos, chamados de “Reunião anual de 1998” e “Reunião anual de 1999”, por exemplo, teríamos gravados no diretório raiz “Reunia-1” e “Reunia-2”. Se o disco fosse lido a partir do DOS, o sistema leria apenas este nome simplificado. Lendo o disco através do Windows 95, seria possível acessar as áreas ocultas do VFAT e ver os nomes completos dos arquivos. 15 FAT 2 A FAT 12 foi o primeiro sistema de arquivos utilizado em micros PCs, antes mesmo da FAT 16. Neste arcaico sistema de arquivos, são usados apenas 12 bits para formar o endereço de cada cluster, permitindo um total de 4096 clusters. O tamanho máximo para cada cluster neste sistema é 4 KB, permitindo partições de até 16 MB. Em 1981, quando o IBM PC foi lançado, 16 MB parecia ser uma capacidade satisfatória, já que naquela época os discos rígidos mais caros (chegavam a custar mais de 2000 dólares) não tinham mais que 10 MB, sendo mais comum o uso de discos de apenas 5 MB. Claro que, em se tratando de informática, por maior que seja um limite, ele jamais será suficiente por muito tempo. Um excelente exemplo é a célebre frase “Por que alguém iria precisar de mais de 640 KB de memória RAM?” dita por Bill Gates numa entrevista, no início da década de 80. Logo começaram a ser usados discos de 40, 80 ou 120 MB, obrigando a Microsoft a criar a FAT 16, e incluí-la na versão 4.0 do MS-DOS. Por ser um sistema de arquivos mais simples do que a FAT 16, a FAT 12 ainda é utilizada pelo Windows 95/98/NT /2000 para formatar disquetes, onde temos clusters de 512 bytes. NTES O NTFS é um sistema de arquivos de 32 bits usado pelo Windows NT. Nele não usamos clusters, sendo os setores do disco rígido endereçados diretamente. A vantagem é que cada unidade de alocação possui apenas 512 bytes, sendo quase nenhum o desperdício de espaço em disco. Somente o Windows NT e o Windows 2000 são capazes de entender este formato de arquivos, e a opção de formatar o HD em NTFS é dada durante a instalação. Apesar do Windows NT funcionar normalmente em partições formatadas com FAT16, é mais recomendável o uso do NTFS, pois além de não desperdiçarmos espaço com os clusters, e termos suporte a discos maiores que 2 Gigabytes, ele oferece também, vários recursos de gerenciamento de disco e de segurança, inexistentes na FAT16 ou FAT32. É possível, por exemplo, compactar isoladamente um determinado diretório do disco e existem várias cópias de segurança da FAT, tornando a possibilidade de perda de dados quase zero. Também existe o recurso de “Hot fix”, onde setores danificados são marcados automaticamente, sem a necessidade do uso de utilitários como o Scandisk. 16 NTFS5 Este é o sistema de arquivos utilizado pelo Windows 2000. Como o W2K foi construído com base no Windows NT 4, nada mais natural do que continuar usando o mesmo sistema de arquivos, porém, com alguns aperfeiçoamentos como o Suporte ao Active Directory, que pode ser usado em redes baseadas no Windows 2000 Server. O recurso mais enfatizado pela Microsoft é o Encripting File System, que permite criptografar os dados gravados no disco rígido, de modo que apenas o usuário possa acessá-los. Assim como o Windows NT, o W2K possui um bom sistema de segurança, que quando usado corretamente, só pode ser quebrado por alguém com profundos conhecimentos do sistema. Entretanto, esta segurança toda impede apenas o acesso ao sistema operacional. Alguém que tenho acesso físico ao micro, pode burlar isso facilmente, simplesmente instalando o HD como slave em outro micro. Este recurso de encriptação, é interessante, por exemplo, para profissionais de campo, que levam dados secretos em seus laptops. É possível tanto criptografar o disco inteiro, quanto pastas ou arquivos individuais. O Windows 2000 quando instalado, converte automaticamente unidades NTFS para NTES 5, também oferecendo a opção de converter unidades FAT 16 ou FAT32, sem perda de dados. As unidades NTFS 5 podem ser acessadas pelo Windows NT, com exceção claro, dos diretórios criptografados. Alguns outros recursos nativos do NTFS 5 também não funcionarão, mas os dados poderão ser acessados sem problemas. Do ponto de vista de um usuário doméstico, porém, o recurso mais interessante é a possibilidade de compactar pastas ou arquivos individualmente. No Windows 95/98 é possível compactar uma unidade de disco usando o Double Space, porém, só é possível compactar partições inteiras, o que normalmente acaba não sendo um bom negócio, pois diminui bastante a velocidade do micro e aumenta a possibilidade de perda de dados. Usando o Windows 2000 em uma partição NTFS, podemos juntar o melhor dos dois mundos, compactando apenas as pastas ou arquivos que não são usados fregientemente, para ganhar espaço. É possível acessar as pastas compactadas normalmente através no Windows Explorer, o acesso aos dados será um pouco mais lento, mas, usando a partir de um Pentium II 300 provavelmente você nem sinta a diferença. Para compactar um arquivo ou pasta basta clicar sobre ele com o botão direito do mouse, em seguida “propriedades” e “avançadas”. Basta agora marcar a opção de compactar arquivos para economizar espaço. 17 rígido bootável, você deverá usar o comando “SYS” seguido da letra do drive, como em “Sys A:” ou “Sys C:”. Neste caso, além de serem copiados os arquivos de sistema, será criado o setor de boot. Alguns tipos de vírus são capazes de se instalar no setor de boot, que se revela o local ideal para alojar estes programas destrutivos, pois como este setor é lido toda vez que o micro é ligado, o vírus sempre seria carregado na memória junto com o sistema operacional. Neste caso, o vírus não seria eliminado nem mesmo com a formatação do disco rígido, já que usando o comando “Format” não reescrevemos o setor de boot onde o vírus está alojado. Para acabar com este tipo de vírus, a solução seria depois de formatar o disco, usar o comando “Fdisk /MBR” para reescrever o setor de boot. Depois disto bastará fazer a reinstalação do sistema operacional ou usar o bom e velho “Sys C:” para reescrever o setor. Este procedimento às vezes é necessário também para remover programas gerenciadores de Boot, como o Lilo do Linux. Obviamente, a formatação do disco rígido só é necessária caso você não tenha acesso a nenhum bom antivírus. FAT Depois que o disco rígido foi formatado e dividido em clusters, mais alguns setores são reservados para guardar a FAT (“file alocation table” ou “tabela de alocação de arquivos”). A função da FAT é servir como um índice, armazenando informações sobre cada cluster do disco. Através da FAT, o sistema operacional sabe se uma determinada área do disco está ocupada ou livre, e pode localizar qualquer arquivo armazenado. Cada vez que um novo arquivo é gravado ou apagado, o sistema operacional altera a FAT, mantendo-a sempre atualizada. A FAT é tão importante que, além da tabela principal, é armazenada também uma cópia de segurança, que é usada sempre que a tabela principal é danificada de alguma maneira. Uma curiosidade é que, quando formatamos um disco rígido usando o comando Format, nenhum dado é apagado, apenas a FAT principal é substituída por uma tabela em branco. Até que sejam reescritos porém, todos os dados continuam lá. O Norton Utilities possui um utilitário chamado “Rescue Disk”, que permite armazenar uma cópia da FAT em disquetes. Caso seu HD seja acidentalmente formatado por um vírus, ou por qualquer outro motivo, você poderá restaurar a FAT com a ajuda destes discos, voltando a ter acesso a todos os dados, como se nada tivesse acontecido. Mesmo que você não possua uma cópia da FAT, é possível recuperar dados usando um outro utilitário do Norton Utilities, chamado Diskedit, que permite acessar diretamente 20 os clusters do disco, e (com algum trabalho) recuperar dados importantes. E studaremos mais sobre recuperação de dados mais adiante. Diretório Raiz Se fossemos comparar um disco rígido com um livro, as páginas seriam os clusters, a FAT serviria como as legendas e numeração das páginas, enquanto o diretório raiz seria o índice, com o nome de cada capítulo e a página onde ele começa. O diretório raiz ocupa mais alguns setores no disco, logo após os setores ocupados pela FAT. Cada arquivo ou diretório do disco rígido possui uma entrada no diretório raiz, com o nome do arquivo, a extensão, a data de quando foi criado ou quando foi feita a última modificação, o tamanho em bytes e o número do cluster onde o arquivo começa. Um arquivo pequeno pode ser armazenado em um único cluster, enquanto um arquivo grande é “quebrado” e armazenado ocupando vários clusters. Neste caso, haverá no final de cada cluster uma marcação indicando o próximo cluster ocupado pelo arquivo. No último cluster ocupado, temos um código que marca o fim do arquivo. Quando um arquivo é deletado, simplesmente é removida sua entrada no diretório raiz, fazendo com que os clusters ocupados por ele, pareçam vagos para o sistema operacional. Além do nome, cada arquivo recebe também uma extensão de até três caracteres, como “EXE”, “DOC”, etc. Através da extensão, o sistema operacional sabe que um determinado arquivo deve ser executado ou aberto usando o Word, por exemplo. A extensão não tem nenhuma influencia sobre o arquivo, apenas determina como ele será visto pelo sistema operacional. Se você abrir o Notepad, escrever um texto qualquer e salvá-lo como “carta.exe”, por exemplo, conseguirá abrir e editar este arquivo sem problemas, mas se você chamar o arquivo clicando duas vezes sobre ele dentro do Windows Explorer, o sistema operacional verá a extensão “EXE” e tentará executar o arquivo, ao invés de tentar abri-lo usando o Notepad, como faria caso o arquivo tivesse a extensão “TXT”. Depois da extensão, existe mais um byte reservado para o atributo do arquivo, que pode ser “somente leitura”, “oculto”, “sistema”, “volume label”, “diretório” ou “arquivo”. O atributo permite instruir o sistema operacional e demais aplicativos sobre como lidar com o arquivo. 21 O atributo “somente leitura” indica que o arquivo não deve ser modificado ou deletado. Se você tentar deletar ou modificar um arquivo somente leitura pelo DOS, receberá a mensagem “Access Denied”. Tentando apagar o arquivo através do Windows Explorer você receberá um aviso explicando que o arquivo é somente para leitura, perguntando se você tem certeza que deseja deletá-lo. O atributo “sistema” possui uma função parecida, indicando apenas que, além de ser oculto, o arquivo é utilizado pelo sistema operacional. Para indicar que um arquivo não deve ser visto em circunstâncias normais, usamos o atributo “oculto”. Para ver os arquivos ocultos você deverá usar o comando “DIR / AH” no DOS, ou marcar a opção “Mostrar todos os arquivos” no menu Exibir/O pções do Windows Explorer. Para nomear um disquete ou a uma partição de um disco rígido, usamos o atributo “volume label”. O nome dado é armazenado em uma área reservada do diretório raiz. De todos os atributos, o mais importante é o atributo de “diretório”, pois ele permite a existência de subpastas. As pastas, mesmo quando vazias, são vistas pelo sistema operacional como arquivos. Dentro deste arquivo ficam armazenadas informações sobre o nome da pasta, atributos como somente leitura, oculto, etc., a posição da pasta na árvore de diretórios (C:NWindows YSystem, por exemplo) e informações sobre quais arquivos ou subpastas estão guardados dentro da pasta, assim como a localização destes arquivos no disco. Como o diretório raiz ocupa um espaço equivalente a apenas 16 KB no disco rígido (32 setores), podemos ter apenas 512 entradas de arquivos ou diretórios. Cada subpasta funciona mais ou menos como um novo diretório raiz, permitindo que tenhamos mais arquivos no disco. Como uma pasta (por na verdade ser um arquivo como outro qualquer) pode ocupar o espaço que quiser, não temos a limitação de 512 arquivos, como no diretório raiz. Qualquer arquivo com o atributo “diretório”, passa a ser visto pelo sistema operacional como uma pasta, mas uma tentativa aleatória de transformar um arquivo qualquer em pasta não daria certo, pois apesar de em essência, as pastas também serem arquivos, elas possuem um formato específico. Uma curiosidade sobre as subpastas, é que elas só passaram a ser suportadas a partir da versão 2.0 do DOS. Os usuários do DOS 1.0 tiveram que conviver durante algum tempo com um sistema que permitia armazenar arquivos apenas no diretório raiz, com a consequente limitação de 512 arquivos no disco. Finalizando, o atributo “arquivo” indica um arquivo que raramente é modificado, ou é uma cópia de backup de algum arquivo importante. Muitos programas de backup 22 arquivo. No final de cada cluster, existe um sinal indicando em qual cluster está gravada a continuação do arquivo. Caso o trabalho dos aplicativos seja interrompido bruscamente, pode ser que alguns arquivos passem erradamente a apontar clusters usados por outros arquivos. Temos então, um ou mais clusters que são propriedade de dois arquivos ao mesmo tempo. Para solucionar este problema, um programa de diagnóstico apagaria ambos os arquivos, oferecendo antes a opção de salvar seu conteúdo na forma de um novo arquivo. Arquivos ou diretórios inválidos: Algumas vezes, devido a um travamento do sistema, algum arquivo salvo, pode ter seu conteúdo danificado. Tendo seu conteúdo corrompido, um diretório, ou algum outro arquivo que possui uma estrutura definida, torna-se inútil. Algumas vezes os programas de diagnóstico conseguem consertar o arquivo; em outras, não resta outra opção senão a clássica medida de permitir salvar o conteúdo do arquivo e, em seguida, deleta-lo. Erros na FAT: Pode ser que devido a uma pane, a própria FAT fique corrompida. Neste caso, um programa de diagnóstico poderia tentar corrigí-la (comparando as duas cópias da FAT, caso o dano seja pequeno), ou simplesmente substituir a titular pela cópia de segurança. Setores Defeituosos Um dos problemas que mais aterroriza os usuários é o aparecimento de setores defeituosos. Esta também é a fonte de inúmeras lendas, “Se aparecer um setor defeituoso é melhor jogar fora o HD e comprar outro”, “se você fizer una formatação fisia, os setores defeituosos somem”. Mas não é bem por aí; setores defeituosos, ou simplesmente bad clusters, são erros físicos nos discos magnéticos, falhas na superfície de gravação que podem surgir devido a picos de tensão ou devido ao envelhecimento da mídia. No primeiro caso, não há motivo para desespero, pois quando a cabeça de leitura do HD está lendo um setor e subitamente a energia é cortada, pode ser que o setor acabe sendo danificado, neste caso basta marcar o setor usando o scandisk e continuar usando normalmente o disco. A menos que hajam novos picos de tensão, dificilmente novos setores defeituosos surgirão. Por exemplo, tenho um HD de 2.6, com dois bads que surgiram pouco tempo depois de comprá-lo, após alguns picos de tensão (realmente a eletricidade aqui onde moro é precária) mas, depois de comprar um no- 25 break, continuei usando o disco sem mais nenhum problema, antes com disco principal e atualmente como slave do primeiro disco, sem que novos bads aparecessem. O segundo cenário, que normalmente ocorre com HDs com mais de 2 ou 3 anos de uso, é bem mais grave. Com o passar do tempo, e após sucessivas leituras, a superfície magnética dos discos começa a se deteriorar, fazendo com que novos setores defeituosos apareçam periodicamente. Para que um setor seja marcado como defeituoso, não é preciso que o setor falhe sempre, apenas que falhe durante o teste do scandisk Por isso é que em HDs muito velhos, é comum serem marcados novos setores defeituosos a cada vez que o exame de superfície é feito. Neste caso, não é aconselhável continuar usando o HD, pelo menos para guardar dados importantes. Mas, mesmo para estes HDs condenados, às vezes existe uma solução. É comum a maioria dos setores aparecerem mais ou menos agrupados, englobando uma área relativamente pequena do disco. Usando o scandisk do MS-DOS, basta ver o mapa do disco, onde os “B” representam os clusters defeituosos. Se houverem muitos bad clusters em áreas próximas, você pode reparticionar o disco, isolando a área com problemas. Se por exemplo você perceber que a maioria dos defeitos se encontra nos últimos 20% do disco, basta abrir o FDISK, deletar a partição atual e criar uma nova, englobando apenas 80% do disco. Neste caso perdemos alguma área útil, mas pelo menos podemos continuar usando o disco com mais segurança. Praticamente todos os HDs modernos possuem uma pequena área reservada no final do disco, que não é usada para gravar dados, mas sim para substituir setores defeituosos. Neste caso, ao rodar o programa adequado, o endereço dos clusters com defeito é alterado, e passa a apontar para um dos setores da área reservada. O cluster defeituoso deixa de ser visto, passando a ser usado seu “substituto”. Esta mudança é feita diretamente nos endereços físicos dos setores e é completamente transparente ao sistema operacional. Na verdade, a maioria dos HDs novos saem de fábrica já com alguns setores defeituosos, que representam mínimas imperfeições na superfície magnética do disco. Porém, antes dos HDs saírem da fábrica, os endereços dos clusters com defeito são alterados, apontando para outros da área reservada, de modo que o HD pareça imaculado. Este ajuste não pode ser feito pelo Scandisk, NDD, ou outros programas de diagnóstico, é preciso usar o formatador do próprio fabricante. Quando se compra um HD na caixa, em versão retail, o formatador vem gravado num disquete. Porém, como aqui no Brasil quase tudo entra via descaminho e é vendido embrulhado em plástico bolha, ilmente recebemos os disquetes. Mas, de qualquer forma, os fabricantes disponibilizam estes programas gratuitamente pela Internet. Os endereços dos principais fabricantes são: 26 Adaptec: http://www. adaptec.com BusLogic: http://www .buslogic.com Chinon: http://www .chinon.com CMD Technology: http://www .cmd.com Comer: http://www.conner.com Data Technoloy: http://www .datatechnology.com Digital Research: http://www. dr-tech.com Fujitsu: http://www fujitsu.com GSI: http://www .gsi-inc.com IBM: http://www .ibm.com Initio: http://www .initio.com KingByte: http://www .kingbyte.com Longshin: http://www .longshin.com.tw Maxtor: http://www .maxtor.com New Media: http://www.newm ediacorp.com Paradise: http://www .paradisemmp.com OQlogic: http://www .qle.com Quantum: http://www .quantum.com Seagate: http://www. seagate.com Tekram: http://www .tekram.com Toshiba: http://www .toshiba.com Tyan Computer: http://www .tyan.com A maioria destes programas são feitos pela Ontrack e licenciados para os fabricantes. Na maioria das vezes temos apenas programas castrados, que funcionam apenas nos discos de um determinado fabricante. Porém, a Ontrack comercializa um programa chamado Ontrack Disk Manager (ou Disk Go!) que funciona com praticamente qualquer disco. Este programa é uma chave mestra que substitui a coleção de programas fornecidos pelos fabricantes, mas custa 60 dólares. Mais informações podem ser encontradas em http://www .ontrack.com Partições Até agora, vimos que existem vários sistemas de arquivos, e que geralmente os sistemas operacionais são compatíveis com apenas um ou no máximo dois sistemas diferentes. Como então instalar o Windows 95 e o Windows NT ou mesmo o Windows 98 e o Linux no mesmo disco rígido? 27 anteriores) com versões para Fat 16, Fat 32, NTFS, Novel Netware e discos Zip/Jaz. Estes programas são capazes de recuperar arquivos apagados, ou mesmo um HD inteiro vítima da ação de vírus, mesmo que qualquer vestígio da FAT tenha sido apagado. Ele faz isso baseando-se nas informações no final de cada cluster, e baseado em estatísticas. Realmente fazem um bom trabalho, recuperando praticamente qualquer arquivo que ainda não tenha sido reescrito. Estes não são exatamente programas baratos. A versão completa para Fat 32, por exemplo, custa 200 dólares, enquanto a versão Lite, que recupera apenas 50 arquivos, custa 49 dólares. Os programas podem ser encontrados e comprados online em http: //www.ontrack.com Na mesma categoria, temos também o Lost and Found da Power Quest. O modo de recuperação é bem parecido com o usado pelo Easy Recovery, e a eficiência também é semelhante, sua vantagem é ser bem mais barato (a versão completa custa apenas 70 dólares). O endereço do site da Power Quest é http://www.powerquest.com . Existe também uma versão em Português, com informações disponíveis em http://www.powerquest.com.br Apagando dados com segurança Como você viu, é perfeitamente possível recuperar dados, mesmo que o HD tenha sido formatado. Na verdade, técnicas mas avançadas de recuperação de dados, utilizadas por algumas empresas especializadas e, em geral, pelos próprios fabricantes, são capazes de recuperar dados anteriormente gravados mesmo que já tenham sido subscritos. Ou seja, mesmo que você tenha formatado o disco e gravado dados por cima, ainda é possível recuperar os dados anteriores, a partir de sutis vestígios deixados na superfície magnética sempre que um bit é alterado. Claro que estas técnicas exigem aparelhos especiais e são extremamente trabalhosas e caras, mas não deixam de ser uma possibilidade. Segundo a Ontrack, para realmente não haver possibilidade de recuperação de dados, devem ser feitas pelo menos 7 regravações sobre os dados originais. Isto nos trás outro problema, e se realmente precisássemos apagar os dados gravados no disco rígido, de modo a ninguém ter como recuperá-los posteriormente? Você poderia formatar o disco e subscrever os dados várias vezes, ou então utilizar um programa que faz esta tarefa automaticamente, como o Data Eraser, da Ontrack A principal vantagem é que o programa faz a regravação em poucos minutos, enquanto o processo manual demoraria muito mais tempo. 30 Compactação de Arquivos A compactação de arquivos sempre foi um recurso muito utilizado, sua origem se confunde com a própria história da computação. Através da compactação, podemos aumentar consideravelmente a quantidade de arquivos e programas que podem ser gravados no mesmo espaço físico. Um HD de 200 Megabytes, por exemplo, pode guardar facilmente 300 MB, 400 MB ou até mais de arquivos compactados, um ganho considerável. Conforme os discos rígidos e outras formas de armazenamento foram crescendo em capacidade, o uso da compactação foi tornando-se menos necessário, mas este ainda é um recurso bastante utilizado. Compactar arquivos é um simples processo de substituição. Por exemplo, cada caractere de texto ocupa 8 bits, o que nos dá um total de 256 combinações possíveis. O conjunto de caracteres ASCII prevê o uso de todas as 256 combinações, porém, em geral utilizamos apenas letras, números e acentuação. Numa imagem em BMP, com 256 cores, usamos também 8 bits para representar cada ponto, mas numa imagem sempre temos grandes áreas com pontos da mesma cor. Num arquivo executável, sempre temos comandos e informações repetitivas. Em todos os casos temos informações redundantes que poderiam ser perfeitamente substituídas por códigos menores. Existem vários algoritmos de compactação, que prevêem vários tipos de substituições para diferentes tipos de arquivos. Porém, uma vez compactado, um arquivo qualquer deixa de ser utilizável. Para poder usar novamente o arquivo, é preciso fazer o processo inverso para ter novamente o arquivo original. Existem vários tipos de compactação de arquivos, cada tipo com suas vantagens e desvantagens: Compactação de arquivos individuais baseada em um utilitário: Consiste em compactar arquivos utilizando programas como o Winzip, Winrar, Arj etc. Muito provavelmente você já trabalhou com um destes programas, e deve ter reparado que alguns arquivos, como textos e imagens .BMP permitem uma taxa de compactação muito maior do que outros. Isto acontece por que estes arquivos possuem uma quantidade de informação redundante muito grande. Experimente abrir o Paint, criar uma imagem de 640x480, desenhar apenas um quadrado preto e salvar o arquivo como um bitmap de 24 bits. O arquivo ficará com cerca de 900 Kbytes. Experimente depois compactar esta imagem usando um programa compactador qualquer, e perceberá que a imagem ficará com apenas 3 ou 5 Kbytes, menos de 1% do tamanho original! Claro que este é um caso extremo, mas geralmente conseguimos diminuir o tamanho dos arquivos em 30 ou 50%. O único problema é que, usando um destes programas para compactar arquivos, é necessário descompactá-los antes de poder utilizá-los. Estes programas estão sendo muito usados hoje em dia, principalmente na Internet, onde é de praxe compactar os arquivos antes de enviá-los, com o objetivo de diminuir o tempo da transferência. 31 Compactação de volumes: Ao invés de compactar arquivos individualmente, é possível criar volumes compactados, usando programas como o DriveSpace (que acompanha o Windows 95/98) ou o Stacker. Em geral, compactamos uma partição de disco inteira. Todos os arquivos gravados nesta partição passam a fazer parte de um volume compactado, na verdade, um grande e único arquivo. Neste caso fica residente na memória um driver de compactação, que serve como um intérprete, compactando os arquivos antes de gravá-los e os descompactando conforme são lidos, entregando-os ao sistema operacional em sua forma original, tudo feito em tempo real. Como os dados são gravados de forma compactada, em média é possível gravar 50 ou 60% a mais de dados. A desvantagem é que como o processador é utilizado para compactar /descompactar os arquivos, temos uma diminuição na performance geral do equipamento. Em um 486 tudo ficará muito mais lento, mas a partir de um Pentium 133, a diferença já não é tão perceptível. A meu ver, o maior problema com este sistema, é qualquer problema pode tornar o volume compactado inacessível, causando a perda dos dados gravados. Hoje em dia este sistema não é quase utilizado, também por que os programas disponíveis são capazes de trabalhar apenas em partições formatadas com FAT 16, não sendo compatíveis com FAT 32 e NTFS, por exemplo. Compactação de arquivos feita pelo sistema operacional: Este é o método permitido pelo Windows 2000 e Windows NT em partições NTFS, que permite unir melhor dos dois mundos, compactando individualmente arquivos ou pastas, mantendo os dados acessíveis mas ao mesmo tempo economizando espaço em disco. Outra vantagem, é que, devido aos arquivos serem compactados individualmente, não existe o risco de perda de dados. Interfaces de Disco Assim como uma placa de vídeo é ligada em um slot PCI ou AGP, para poder comunicar-se com o restante do sistema, o disco rígido precisa estar ligado a alguma interface. Uma interface de disco nada mais é do que um meio de comunicação, uma estrada por onde possam trafegar os dados que entram e saem do HD. De nada adianta um disco rígido muito rápido, se a interface não permite que ele se comunique com o restante do sistema usando toda a sua velocidade. Atualmente são usados dois padrões de interfaces de disco: o IDE (também chamado de ATA) e o SCSI, com predominância do IDE. 32 O encaixe das interfaces UDMA 66 possuem os mesmos 40 pinos dos outros padrões, assim como compatibilidade retroativa com qualquer HD IDE. Porém, os cabos possuem 80 vias, sendo 40 são usadas para transportar dados e 40 como terras. Os fios são intercalados na forma de um fio de dados, um terra, outro de dados etc., esta disposição atenua as interferências e permite atingir os 66 MB/s. Outro requisito imposto pelo padrão é que os cabos não tenham mais que 45 cm de comprimento, pois o cabo atua como uma antena, captando interferências externas. Quanto mais longo for o cabo, mais forte será a interferência. Para ativar o UDMA 66, você precisa que tanto o disco rígido, quanto a placa mãe, sejam compatíveis, sendo obrigatório o uso do cabo especial de 80 vias que é fornecido junto com a placa mãe. Finamente, é preciso instalar os drivers que acompanham a placa mãe para ativar o suporte aa UDMA 66 no Windows 98, pois este possui suporte nativo apenas para UDMA 33. Os drivers de UDMA vem no CD da placa mãe, normalmente no diretório “IDE”. Algumas vezes os drivers também podem ser instalados diretamente através de um programa de configuração incluso no CD. Em caso de dúvida, basta consultar o manual da placa. Mesmo com todo o hardware necessário, sem instalar os drivers, o recurso permanecerá desativado. Mais portas IDE Se as placas mãe atuais dispõem de apenas duas portas IDE, e cada porta permite a conexão de dois dispositivos, então teríamos um limite de 4 dispositivos IDE por máquina certo? Errado! :-) É possível instalar mais duas portas IDE, chamadas porta terciária e quaternária, totalizando 4 portas IDE na mesma máquina. Estas placas com interfaces extras podem ser adquiridas separadamente, embora sejam um pouco difíceis de se encontrar devido à baixa procura. Para que a controladora terciária ou quaternária funcione, é preciso que esteja configurada para funcionar em tal posição, usando um IRQ e endereço de 1/O diferente das duas controladoras embutidas na placa mãe, que usam os endereços IRQ 14, 1/0 1F0-1F7 e IRQ 15 e 1/O 170-177. Tenho um monte de placas IDE antigas, sucatas de velhos micros 486, que só aceitam funcionar como IDE primária, usando o IRQ 14. Por isso, não existe maneira de usá-las com as duas controladoras onboard habilitadas. Existem, porém, placas IDE mais contemporâneas, geralmente PCI, que podem ter seu endereço de IRQ e 1/O configurado via jumpers; neste caso, basta escolher um IRQ livre. Por usarem o barramento PCI, estas portas são bastante rápidas, geralmente 35 funcionando em PIO Mode 4. Também existem as placas Hot Hod produzidas pela Abit (http: //wwwabit-usa.com) que suportam UDMA 66. Outra opção, seria usar uma daquelas placas de som antigas que trazem interfaces IDE embutidas, pois nelas as portas IDE vêm configuradas de fábrica como terciárias, também funcionando normalmente, mesmo com as duas portas onboard habilitadas, bastando apenas que você tenha o IRQ livre e os drivers adequados. Apesar de originalmente serem destinadas à conexão de drives de CD-ROM, as portas IDE embutidas nestas placas de som aceitam normalmente dois dispositivos IDE de qualquer tipo, configurados como master e slave. Note que estas placas de som antigas usam o barramento ISA, e por isto são bastante lentas, geralmente operando a apenas 3.3 MB/s em PIO Mode 0. Apesar de muitas as controladoras terciárias e quaternárias não serem reconhecidas pelo BIOS, você pode fazê-las funcionar sem muita dificuldade no DOS, usando os drivers que acompanham a placa. Já no Windows 98 isso não será necessário, pois ele detecta normalmente as interfaces, bastando usar o utilitário “adicionar novo hardware” do painel de controle. Existem caso de placas mãe que já vêm com quatro interfaces IDE onboard, como a Abit BE6, que vem com duas portas UDMA 33 e duas portas UDMA 66. RAID em HDs IDE Uma controladora RAID permite combinar vários discos rígidos, permitindo aumentar tanto o desempenho, fazendo vários discos trabalharem como se fossem um só; quanto a confiabilidade, usando um sistema de espelhamento. Além das controladoras SCSI, que não são uma solução muito viável para o usuário doméstico, já que os discos rígidos SCSI são caros, existem também algumas controladoras RAID IDE, que além de serem mais baratas, permitem usar os discos rígidos IDE que temos no mercado. Uma controladora que vem sendo muito elogiada, é a Promise FastTrak66 IDE. Nos EUA, esta controladora é vendida por 65 dólares, aqui no Brasil, o preço varia muito, dependendo de onde você for comprar, mas é possível encontra-la por menos de 100 dólares. Como outras controladoras similares, a Premisse FastTrak66 é uma placa de expansão que deve ser conectada a um dos slots PCI do micro. O placa substitui as interfaces IDE da placa mãe, por isso é detectada automaticamente pelo sistema operacional que 36 estiver utilizando, seja o Windows 95/98 quanto o Windows 2000 ou mesmo o Linux, tornando a instalação bastante simples. A placa trás as duas saídas IDE normais. Cada saída permite conectar dois discos rígidos, o que traz a possibilidade de instalar até 4 discos rígidos IDE. As possibilidades são as seguintes: RAID 0 (Striping): É possível combinar 2, 3 ou 4 discos rígidos, que serão acessados como se fossem um só, aumentando radicalmente o desempenho do acesso à disco. Os dados gravados são fragmentados e os pedaços são espalhados por todos os discos. Na hora de ler, os discos são acessados ao mesmo tempo. Na prática, temos um aumento de desempenho de cerca de 98% usando dois discos, 180% usando 3 discos e algo próximo a 250% usando 3 discos. As capacidades dos discos são somadas. Usando 3 discos de 8 GB por exemplo, você passará a ter um grande disco de 24 GB. Este modo é o melhor do ponto de vista do desempenho, mas é ruim do ponto de vista da confiabilidade, pois como os dados são fragmentados, caso apenas um disco falhe, você perderá os dados gravados em todos os discos. Uma observação importante sobre este modo é que você deve usar discos rígidos idênticos. É até possível usar discos de diferentes capacidades, mas o desempenho ficará limitado ao desempenho do disco mais lento. RAID 1 (Mirroring): Este modo permite usar 2 discos, sendo que o segundo armazenará uma imagem idêntica do primeiro. Na pratica, será como se você tivesse apenas um disco rígido instalado, mas caso o disco titular falhe por qualquer motivo, você terá uma cópia de segurança armazenada no segundo disco. Este é o modo ideal se você quiser aumentar a confiabilidade do sistema. A observação sobre este modo é que ao usar dois discos, procure colocar um em cada uma das duas interfaces IDE da placa, isto melhorará o desempenho. Outro ponto é que caso os dois discos estejam na mesma interface, como master e slave, você teria que restar o micro caso o primeiro disco falhasse (este problema ocorre em todas as controladoras RAID IDE). Usando um em cada interface a controladora fará a troca sem necessidade de reset. RAID 10 (Mirror/ Strip): 37 Como nos discos IDE, esta é a transferência de dados permitida pela controladora, e não a velocidade de operação dos discos. Atualmente, mesmo os discos rígidos mais rápidos, dificilmente superam a marca dos 30 MB/s. Poderíamos pensar então, qual seria a vantagem de uma controladora rápida, se nenhum disco será capaz de utilizar toda sua velocidade. Não podemos nos esquecer, porém, que numa interface SCSI podemos ligar até 15 dispositivos, entre discos rígidos, CD-ROMS, gravadores de CD, scanners e outros. Isso é particularmente aplicável em servidores, onde é comum o uso de vários discos rígidos. Neste caso, todos os periféricos compartilharão o mesmo barramento de dados, utilizando toda sua capacidade. Vale então a máxima de “quanto mais melhor”. Outro fator, é que os discos rígidos mais rápidos são padrão SCSI. Isso não significa, que um disco rígido é mais rápido somente por ser SCSI, mas que as tecnologias mais novas e caras são geralmente utilizadas primeiramente em discos SCSI, sendo somente utilizadas nos discos IDE depois de tornarem-se mais baratas. Isto acontece justamente por causa do mercado de discos SCSI, que prioriza o desempenho muito mais do que o preço. Se você precisa de um equipamento com o máximo de desempenho, e pode pagar por ele, então o SCSI é a melhor escolha. Porém, se o seu computador se destina ao uso doméstico, como aplicações de escritório, jogos e Internet, então os discos IDE compensam muito mais devido ao baixo custo. Falando em custo, não podemos esquecer que todas as placas mãe modernas vêm com interfaces IDE embutidas, sendo nosso único gasto com os discos rígidos ou CD-ROMs. Por outro lado, para usar discos SCSI, precisaríamos comprar separadamente a controladora, sendo que uma boa controladora SCSI custa por volta de 250 ou 300 dólares, sendo os próprios discos SCSI mais caros. A instalação de periféricos SCSI também é diferente da instalação de periféricos IDE. Primeiramente é preciso comprar um cabo com encaixes suficientes para o número de dispositivos que pretende encaixar. No dispositivo da ponta deverá ser instalado um terminador, que permite à controladora detectar o final da cadeia. Na maioria dos casos o terminador é encaixado no dispositivo, mas em alguns casos basta mudar a posição de uma chave. Em caso de dúvida basta consultar o manual. Para que possam ser acessados pela controladora, cada dispositivo SCSI possui um endereço de identificação, ou ID. As controladoras Narrow possuem 8 endereços, numerados de O a 7, enquanto as Wide possuem 16 endereços, numerados de O a 15. Como o endereço O é usado pela própria controladora, sobram 7 ou 15 endereços para os dispositivos. Você pode configurar os endereços da maneira que quiser; a única regra é que dois dispositivos não podem usar o mesmo ID. 40 RAID com HDs SCSI Atualmente, o disco rígido e um dos componentes mais lentos em qualquer PC. Muito mais lento que o processador, que a memória RAM, que a placa de vídeo, etc. O grande problema é que devido à sua natureza mecânica, não é possível produzir HDs muito mais rápidos com a tecnologia atual, pelo menos a um custo aceitável. Para quem precisa de HDs mais rápidos, seja por precisar de um servidor de arquivos parrudo, ou por qualquer outro motivo, mas ao mesmo tempo não pode gastar muito, uma solução é o RAID. RAID significa “Redundant Array of Inexpensive Disks”, ou disposição redundante de discos baratos. A idéia é um sistema “unidos venceremos”, onde vários HDs são combinados para aumentar a performance. Num nível mais complexo, o RAID pode ser usado também para melhorar a confiabilidade do equipamento, através de espelhamento ou paridade. Num sistema RAID 1, onde temos dois HDs, sendo que o segundo armazena uma cópia fiel dos dados do primeiro, mesmo que um dos HDs pife de uma hora pra outra, o sistema continua intacto, funcionando como se nada tivesse acontecido. Como o nome sugere, um sistema RAID utiliza HDs IDE ou SCSI comuns, o que permite construir sistemas com vários HDs a um custo relativamente baixo. Várias placas mãe atuais, como a Abit KT7-Raid, entre várias outras estão vindo com controladoras RAID IDE embutidas, permitindo combinar até 4 HDs IDE. A pouco falei sobre como montar um sistema RAID usando HDs IDE, agora é a vez de explicar sobre o RAID usando HDs SCSI. O primeiro passo para montar um sistema RAID SCSI é comprar uma controladoras SCSI com suporte a RAID. A maioria das controladoras SCSI atuais suportam RAID, custando (no Brasil) apartir de 200 dólares. As controladoras diferenciam-se pelos recursos. Em primeiro lugar, existem controladoras SCSI de 8 bits e de 16 bits, as de 8 bits permitem usar até 7 HDs, enquanto as de 16 bits permitem um máximo de 15 e são duas vezes mais rápidas. Outra diferença diz respeito ao padrão suportado pela placa, que dita a velocidade da interface. Placas Ultra SCSI (Fast 20) operam a 20 MB/s (placas de 8 bits) ou 40 MB/s (placas de 16 bits). Placas Ultra-2 SCSI (Fast 40) operam a 40 MB/s (8 bits) ou 80 MB/s (16 bits). As placas Ultra-3 SCSI (Fast 80) são as mais rápidas. operam a 80 MB/s ou 160 MB/s. 4 Também existem controladoras com buffer embutido. Este buffer funciona como um cache de disco, melhorando a performance, principalmente nas operações de escrita. Podem ser encontradas placas com até 32 MB de buffer. Naturalmente, quanto mais buffer, mais cara a placa. Resolvido o problema da placa SCSI, resta escolher qual modo RAID será usado. O modo pode ser configurado através do BIOS da placa SCSI, que pode ser acessado pressionando uma combinação de teclas durante o boot. O mais comum é Ctrl + C. Os modos RAID disponíveis em placas SCSI são: RAID 0 (Striping) : É o modo que permite obter a melhor performance possível, sacrificando parte da confiabilidade. Todos os discos passam a ser acessados como se fossem um único drive. Ao serem gravados, os arquivos são fragmentados nos vários discos, permitindo que os fragmentos possam ser lidos/gravados ao mesmo tempo. Usando RAID O a performance um patamar próximo da velocidade de todos os HDs somada. Ao usar 4 HDs com taxa de transferência de 20 MB/s cada em RAID 0, você teria uma taxa de transferência total de 75, 76 MB/s. O problema é que caso qualquer um dos HDs apresente problema, serão perdidos os dados armazenados em todos os HDs, já que qualquer arquivo torna-se inútil caso uma parte do código seja perdida. RAID 1 (Mirroring) : É o famoso sistema de espelhamento, conseguido usando dois HDs. Um deles armazena dados, enquanto o seguindo armazena uma cópia fiel dos mesmos dados. Caso qualquer um dos HDs pare, ele é automaticamente substituído pelo seu “clone” e o sistema continua intacto. Na maioria das controladoras RAID SCSI é possível realizar a troca do HD defeituoso “a quente”, com o micro ligado, recurso ainda não disponível nas controladoras RAID IDE. RAID2: É um modo que não é mais utilizado. O RAID 2 consiste em embutir códigos de correção de erros em cada cluster de dados gravado. Porém, todos os HDs atuais já vem com sistemas de correção de erros embutidos, tornando o sistema obsoleto. RAID 3: 42 seus discos, costumam usar o sistema decimal para medir a capacidade dos discos. Assim, um HD vendido como um disco de 4.3 Gigabytes ao invés de ter 4,617,089,843 bytes, possui geralmente apenas 4.3 bilhões, que correspondem a pouco mais de 4 Gigabytes reais . O usuário então, todo feliz com seu novo HD de 4.3 Gigabytes, percebe, ao instalá-lo, que sua capacidade é de apenas 4 Gigabytes e fica se perguntando quem “comeu” os outros 300 Megabytes do seu HD. Infelizmente, esta prática tem sido usada por praticamente todos os fabricantes, que geralmente têm a cara de pau de escrever no manual do disco rígido, ou mesmo no próprio, uma mensagem como “O fabricante se reserva o direito de considerar 1 Gigabyte como 1,000,000,000 de bytes”. As barreiras de 504 MB e 8 GB Um grande problema que enfrentamos ao tentar instalar un HD moderno numa placa mãe mais antiga, são as limitações quanto à capacidade do disco. Na época dos 486s o limite era quanto a HDs maiores que 504 MB (528 MB na notação decimal utilizada pelos fabricantes) e, nas placas mãe produzidas até pouco tempo atrás, existe uma nova limitação, agora para HDs maiores que 7.88 GB (8.4 GB pela notação decimal) Estas limitações surgiram devido à falta de visão das pessoas que desenvolveram o padrão IDE e as instruções INT 13h do BIOS, as responsáveis pelo acesso à disco, desenvolvidas para serem usadas pelo PC AT, mas que acabaram sendo perpetuadas até os dias de hoje. Naquela época, HDs com mais de 504 MB pareciam uma realidade muito distante, e o homem que viria a se tornar o presidente da Microsoft e o empresário mais rido do mundo, acreditava piamente que ninguém um dia viria a precisar de mais de 640 KB de memória RAM :-) A divisão do disco em clusters, usando um sistema de arquivos qualquer, visa o suporte por parte do sistema operacional. Num nível mais baixo, porém, é preciso acessar individualmente os setores do disco rígido e, para isso, é preciso que cada setor tenha um endereço único. O padrão IDE reserva 16 bits para o endereçamento dos cilindros (65,536 combinações), 4 bits para o endereçamento das cabeças de leitura (16 combinações), 8 bits para o setor (256 combinações), o que permite endereçar 256 milhões de setores. Como cada setor tem sempre 512 bytes, temos suporte a HDs de até 128 GB. Porém, o BIOS possui outras limitações para o acesso a discos (serviço chamado de INT 13h), reservando 10 bits para o endereçamento de cilindros (1,024 combinações), 8 bits para as cabeças de leitura (256) e 6 bits para o setor (63 combinações pois o 45 endereço O é reservado), o que permite endereçar 1.61 milhões de setores e consequentemente discos de até 7.88 GB. Como é preciso usar tanto a interface IDE quanto as instruções INT 13h do BIOS, acabamos por juntar suas limitações. A interface IDE reserva 16 bits para o endereçamento dos cilindros, porém o BIOS só utiliza 10 destes bits. O BIOS por sua vez reserva 8 bits para o endereçamento das cabeças de leitura, porém só pode utilizar 4 por limitações da Interface. A capacidade de endereçamento então acaba sendo nivelada por baixo, combinando as limitações de ambos os padrões, permitindo endereçar discos de no máximo 504 MB, limite para a maioria dos micros 486 ou inferiores. Este método de endereçamento é chamado de Normal ou CHS (cilindro, cabeça de leitura e setor). Veja a representação na tabela: Limitações Cilindro Cabeça RARO Capacidade Sigiel PEDE Interfa 16 bits 4 bits 8 bits IDE/ ATA 165536 (16 (256 128 GB combinações) combinações) combinações) 10 8 bits 6 bits (BIOS) Bh 24 (256 (63 788 GB combinações) combinações) combinações) Combinação | 5 pi, 4 bits 6 504 MB de ambos Esta configuração é apenas lógica, o modo como o BIOS enxerga o disco rígido, não tem nada a ver com a geometria física do disco rígido, que diz respeito apenas à placa lógica do HD. Um disco de 504 MB, por exemplo, jamais teria 16 cabeças de leitura, tão pouco teria apenas 63 setores por cilindro. A placa lógica neste caso se encarrega de converter os endereços lógicos do BIOS para os endereços físicos reais. Na época do 286, onde eram usados HDs de no máximo 20 ou 40 MB, este limite não incomodava ninguém; mas a partir do momento em que passamos a ter HDs de 800 MB, 1 GB, 1.2 GB, etc. alguma coisa precisava ser feita. A primeira solução foi o Extended CHS ou modo Large. Este padrão continua com as mesmas limitações da interface IDE e do INT 13, mas usa um pequeno truque para burlar suas limitações. O BIOS possui mais endereços para as cabeças de leitura (256 contra 16), porém, a interface IDE possui mais endereços para os cilindros (65,536 contra 1024). Usando o modo Large passamos a utilizar um tradutor, um pequeno programa integrado ao BIOS encarregado de converter endereços. A conversão é feita usando um simples fator multiplicativo: a interface IDE permite mais endereços para o cilindro, mas ao mesmo tempo permite menos endereços para a cabeça de leitura, podemos então aplicar a 46 tradução de endereços dividindo o número de endereços do cilindro e multiplicando os endereços para cabeças de leitura pelo mesmo número. Podem ser usados os números 2,4,8€e 16. Se por exemplo, instalássemos um drive com uma geometria lógica de 3,068 cilindros, 16 cabeças e 63 setores, usando o fator 4 passaríamos a ter 3,086 / 4 = 767 cilindros, 16x 4= 64 cabeças e 63 setores, veja que agora temos endereços dentro dos limites do BIOS e por isso podemos utilizar os 1.5 GB do disco sem problemas: [Gare icoo) Cabeça [ROS Capacidade leitura Geometria lógica do |3,068 16 63 15GB disco Geometria traduzida para | 3,068 / 4= 767 |16x4= 64 63 1.5GB o BIOS Limites do BIOS 1024 256 63 7.88GB O modo Large nunca foi muito utilizado, pois logo depois surgiu uma solução bem melhor para o problema, conhecida como modo LBA, contração de Logical Block Addressing ou endereçamento lógico de blocos. A idéia é a seguinte: o padrão IDE reserva 16 bits para o endereçamento do cilindro, 4 bits para o endereçamento da cabeça de leitura e mais 8 bits para o setor, totalizando 28 bits de endereçamento. O modo LBA abandona o endereçamento CHS, com endereços independentes para cilindros, cabeças e setores, passando a adotar um endereço único. Os setores passam então a receber endereços segienciais, 0, 1, 2,3, 4 etc. assim como os clusters no sistema FAT. Os 28 bits de endereçamento permitem então 228 milhões de endereços, o que corresponde a HDs de até 137 GB. Claro que para usar o LBA é preciso que o disco rígido suporte este modo de endereçamento. Felizmente, praticamente todos os HDs acima de 504 MB e todos os HDs atuais suportam o LBA. Na verdade, o modo Large só deve ser usado nos raríssimos casos de HDs com mais de 504 MB, que por ventura não suportem o LBA. Veja que para endereçar os 137 GB permitidos pelo LBA, é preciso abandonar o uso das instruções INT 13h, o que significa desenvolver novas instruções de acesso à disco para o BIOS. Acontece que as placas mãe fabricadas há até pouco tempo atrás, apesar de incluírem suporte ao LBA, continuam utilizando as velhas instruções INT 13h para acessar o disco rígido. Como no caso anterior, temos então que nivelar por baixo, ficando condicionados à limitação de 7.88 GB (8.4 GB pela notação decimal) imposta pelas 47 De modo a tornar seus discos rígidos mais confiáveis, os fabricantes usam técnicas de correção de erros cada vez mais avançadas. A técnica mais utilizada atualmente é o ECC (Error Correction Code), técnica também utilizada em drives de CD-ROM e memórias. Usando o ECC, quando um dado é gravado num setor, são gerados códigos que são gravados juntamente com ele. Além dos 512 bytes de dados, cada setor armazena mais alguns bytes contendo os códigos ECC. A criação dos bytes de ECC, assim como sua utilização posterior é feita pela placa lógica do disco rígido, sendo o processo de verificação e correção completamente transparente ao sistema operacional e ao usuário. A quantidade de códigos a ser usada é uma decisão do fabricante, mas quanto mais códigos forem usados, maior será a possibilidade de recuperação dos dados do setor em caso de erro. Atualmente, é comum o uso de até 100 bytes de códigos para cada setor, o que resulta HDs praticamente livres de erros. Quando um setor é lido pela cabeça de leitura, juntamente com os dados são lidos alguns dos códigos ECC, que visam apenas verificar se os dados que estão sendo lidos são os mesmos que foram gravados, uma técnica que lembra um pouco a paridade usada na memória RAM. Caso seja verificado um erro, são usados os demais códigos para tentar corrigir o problema. Na grande maioria dos casos, esta primeira tentativa é suficiente. Em caso de fracasso, é feita uma nova tentativa de leitura do setor, pois é grande a possibilidade do erro ter sido causado por alguma interferência ou instabilidade momentânea. Caso mesmo após várias tentativas o erro permaneça, são usados os códigos de ECC mais avançados, que garantem uma possibilidade de sucesso maior, mas que por outro lado, exigem muito mais processamento e consomem mais tempo. Se mesmo assim, não for possível corrigir o erro, temos uma falha de leitura. É mostrada então uma mensagem de erro na tela e o setor atingido é marcado como defeituoso no defect map. Segundo dados da Quantum sobre seus discos rígidos, a cada 1 Gigabyte de dados lidos pela cabeça de leitura, temos um erro simples que é corrigido automaticamente. A cada 1,000 Gigabytes, temos um erro que é corrigido usando-se as técnicas mais avançadas de correção, e apenas a cada 100,000 Gigabytes temos uma falha de leitura. Desempenho O desempenho do HD é um fator que influencia muito no desempenho global do sistema, determinando o tempo de carregamento dos aplicativos e arquivos grandes, e 50 até mesmo a velocidade de acesso ao arquivo de troca. Para ser carregado um programa ou acessado qualquer outro dado, é preciso primeiramente transferi-lo do disco rígido para a memória. Pouco adianta ter um processador ou memórias ultra-rápidos, se a todo momento eles tiverem que esperar por dados a serem transmitidos pelo disco rígido. Depois da quantidade de memória RAM e cache, o disco Rígido é talvez o componente que mais afeta o desempenho do micro, rivalizando até mesmo com o processador. As diferentes marcas e modelos de HDs que existem à venda no mercado apresentam desempenhos bem diferentes uns dos outros. Não é fácil medir o desempenho de um disco rígido, pois o desempenho do disco é determinado por um conjunto de vários itens e não é nada fácil tentar resumí-lo a um único número. Nenhum programa de benchmark que existe atualmente é muito preciso para medir a performance de um disco rígido, pois os resultados acabam sempre sendo contaminados pela performance do resto do equipamento. Se você medir o desempenho de um disco rígido instalado em um 233 MMX, e em seguida medir o desempenho do mesmo disco instalado em um Pentium III 600, verá que os resultados serão bem mais altos. Além disso, estes testes privilegiam sempre alguns fatores, como o tempo de acesso, desprezando outros fatores igualmente importantes. Para piorar ainda mais este quadro, os fabricantes têm o péssimo hábito de vender discos rígidos informando a capacidade máxima de transferência de dados da controladora, e não a do disco. Isso é completamente irreal, pois uma controladora UDMA 33, por exemplo, transmite dados numa velocidade de 33 MB /s, enquanto a velocidade real do disco fica geralmente em torno de 10 ou 15 MB/s. Outras vezes é divulgado apenas o tempo de acesso, e muitos acabam concluindo que o disco A é melhor do que o disco B, simplesmente por ter um tempo de acesso de 9 milessegundos, enquanto o outro tem tempo de acesso de 9.5 milessegundos. Para esclarecer um pouco melhor este assunto, vou analisar agora os diferentes fatores que determinam o desempenho de um disco rígido. Pesquisando nos sites dos fabricantes você quase sempre encontrará estas especificações: Tempo de Busca (Seek Time) Este é um fator importante na performance geral do disco, pois é o tempo que a cabeça de leitura demora para ir de uma trilha à outra do disco. Este tempo é um pouco difícil de determinar com exatidão, pois o tempo que a cabeça demora para ir da trilha 50 à trilha 100, deslocando-se 50 trilhas, por exemplo, não é 5 vezes maior que o demorado para ir da trilha 50 à trilha 60, deslocando-se 10 trilhas. 51 Você não demora 5 vezes mais tempo para ir a um local distante 5 quilômetros da sua casa, do que para ir a um local distante apenas 1 quilômetro, pois além do tempo necessário para percorrer a distância, existe o tempo de ligar o carro, abrir a porta da garagem, estacionar o carro, etc. Assim, para ir da trilha 50 à 60, as cabeças de leitura e gravação poderiam levar 4 milessegundos, levando apenas 10 para ir da cabeça 50 à 100, por exemplo. Estes valores variam em cada marca e modelo de disco rígido, mas quanto menores forem os tempos, melhor será a performance. Tempo de Latência (Latency Time) Dentro do disco rígido, os discos magnéticos giram continuamente. Por isso, dificilmente os setores a serem lidos estarão sob a cabeça de leitura/gravação no exato momento de executar a operação, podendo, no pior dos casos, ser necessário uma volta completa do disco até o setor desejado passar novamente sob a cabeça de leitura. O tempo de latência é tão importante quanto o tempo de busca. Felizmente, ele é fácil de ser calculado, bastando dividir 60 pela velocidade de rotação do HD, medida em RPM (rotações por minuto), e multiplicar por 1000. Teremos então o tempo de latência em milessegundos. Um HD de 5200 RPM, por exemplo, terá um tempo de latência de 11.5 milessegundos (o tempo de uma rotação), já que 60 + 5200 x 1000 = 11.5 Geralmente é usado o tempo médio de latência, que corresponde à metade de uma rotação do disco, assumindo que os clusters desejados estarão, em média, a meio caminho do cabeçote. Um HD de 5200 RMP teria um tempo de latência médio de 5.75 milessegundos. Tempo de Acesso (Access Time) O tempo de acesso, é o tempo médio que o disco demora para acessar um setor localizado em um local aleatório do disco. Este tempo é um misto do tempo de busca e do tempo de latência do disco rígido, significando o tempo que o braço de leitura demora para chegar a uma determinada trilha, somado com o tempo que o disco demora para girar e chegar ao setor certo. O tempo de acesso nos HDs mais modernos gira em torno de 10 a 7 milessegundos (quanto mais baixo melhor). 52 Densidade A densidade dos platers de um disco rígido é outro fator com enorme impacto na performance. Quanto maior for a densidade, menor será o espaço a ser percorrido pela cabeça de leitura para localizar um determinado setor, pois os dados estarão mais próximos uns dos outros. A densidade pode ser calculada muito facilmente, bastando dividir a capacidade total do disco pela quantidade de cabeças de leitura (e consequentemente o número de faces de disco). Um disco rígido de 4 Gigabytes e 4 cabeças de leitura, possui uma densidade de 1 Gigabyte por face de disco, enquanto que outro disco, também de 4 Gigabytes, porém com 6 cabeças de leitura, possui uma densidade bem menor, de apenas 666 Megabytes por face de disco. A densidade influencia diretamente nos tempos de acesso e de latência do HD, além disso, com um número menor de cabeças de leitura, o tempo perdido com o Head Switch também é menor. Muitas vezes encontramos no mercado HDs de mesma capacidade, porém, com densidades diferentes. Neste caso, quase sempre o HD com maior densidade utilizará tecnologias mais recentes, sendo por isso mais rápido. Velocidade da Interface A interface determina a velocidade máxima de transferência, mas não necessariamente a performance do disco rígido. Em geral, a interface é sempre muito mais rápida do que a taxa de transferência interna alcançada pelo HD. Porém, em muitas situações, a interface IDE fica momentaneamente congestionada, deixando de transmitir dados. Nestas situações os dados são acumulados no buffer do HD e, em seguida, transmitidos de uma vez quando a interface fica livre. Isto pode ocorrer em duas situações: quando temos dois discos instalados na mesma porta IDE e os dois discos são acessados simultaneamente, ou quando o barramento PCI fica congestionado (já que as portas IDE compartilham os 133 MB/s com todos os demais periféricos PCI instalados). Nestas situações, ter uma interface mais rápida irá permitir que os dados armazenados no cache sejam transferidos mais rápido. Porém, em situações normais, o desempenho ficará limitado à taxa de transferência interna do HD, que mesmo no caso de um HD topo de linha, lendo setores segienciais, dificilmente chega perto de 20 MB /s O simples fato de passar a usar DMA 66 no lugar de UDMA 33, não irá alterar quase nada o desempenho do disco em aplicações reais, pelo menos enquanto não tivermos HDs capazes de manter taxas de transferência internas próximas de 30 MB/s, o que provavelmente só deve acontecer por volta de 2002. O UDMA 66 veio com o objetivo 55 de ampliar o limite de transferência das interfaces IDE, abrindo caminho para o futuro lançamento de HDs muito mais rápidos, que possam trabalhar sem limitações por parte da interface, mas não é de se esperar que um velho HD de 6.4 ou algo parecido, fique mais rápido só por causa da interface mais rápida. Não adianta melhorar a qualidade da estrada se o carro não anda. Marca e modelo x Capacidade: Muitos modelos de HDs são fabricados em várias capacidades diferentes; o Quantum Fireball Plus KA, por exemplo, pode ser encontrado em versões de 9.1 e 18.2 GB. Neste caso, muda apenas o número de platters e cabeças de leitura, ao invés de ter apenas um platter e duas cabeças de leitura, o disco passa a ter dois platters e quatro cabeças, porém, a velocidade de rotação, densidade etc. continuam as mesmas. Neste caso, apesar da capacidade de armazenamento aumentar, o desempenho cairá um pouco em relação à versão de menor capacidade, pois com mais cabeças de leitura será perdido mais tempo com o Head Switch time e, além disso, o cache de disco irá tornar- se menos eficiente, já que teremos a mesma quantidade de cache para uma quantidade de dados muito maior. No caso do Quantum Fireball Plus KA, a versão de 9.1 GB mantém taxas de transferência cerca de 7% maiores que a versão de 18.2 GB. Veja que este não é o caso de todos os HDs do mesmo modelo lançados com capacidades diferentes; um exemplo é o Medalist Pro da Seagate, a densidade na versão de 6.4 GB é de apenas 1.3 GB por face, com rotação de 5,400 RPM, enquanto na versão de 9.1 GB a densidade sobe para 2.3 GB por face e a rotação para 7,200 RPM. O desempenho do HD deve ser calculado com base nas especificações, e não com base na capacidade. Mesmo sem ter acesso a qualquer benchmark, apenas examinando a densidade, tempo de acesso, velocidade de rotação e cache, é possível ter uma boa idéia do desempenho apresentado pelo disco, Drives de Disquetes Apesar de ter um funcionamento um pouco parecido com o de um disco rígido, um drive de disquetes é muito mais simples, muito mais primitivo até mesmo do que os jurássicos discos rígidos do início da década de 80. A mídia magnética de um disquete é composta de óxido de ferro, simplesmente ferrugem. É aplicada uma fina camada deste material sobre um disco feito de plástico 56 mylar, o mesmo utilizado em fitas K-7, apenas um pouco mais espesso no caso dos disquetes. Assim como nos discos rígidos, os disquetes são divididos em trilhas e setores. A diferença é que, enquanto um disco rígido possui geralmente mais de 2,000 trilhas, um disquete de 1.44 MB possui apenas 80 trilhas. O número de setores também é menor, apenas 18 setores por trilha num disquete de 1.44, muito longe dos 200 ou 300 setores encontrados em cada trilha de um disco rígido. Como nos disquetes não é utilizado o recurso de Zoned Bit Recording, todas as trilhas possuem o mesmo número de setores. Falando em trilhas, uma curiosidade sobre os discos flexíveis, é que apenas uma pequena faixa do disco é usada para gravar dados. A densidade em um disquete de 1.44 é de 135 trilhas por polegada. Como temos apenas 80 trilhas, é aproveitada uma faixa de apenas 1.5 cm do disquete, que começa a partir da borda do disco. A velocidade de rotação nos drives de disquete também é muitas vezes menor que a dos discos rígidos. Enquanto um HD topo de linha chega a ultrapassar 10,000 rotações por minuto, um drive de 1.44 trabalha com apenas 300 rotações por minuto, ou seja, apenas 5 rotações por segundo. Um dos motivos de ser utilizada uma velocidade de rotação tão baixa, é a fragilidade da mídia magnética dos disquetes, que fatalmente seria danificada durante a leitura e gravação de dados caso fossem utilizadas velocidades mais altas. Enquanto nos discos rígidos utilizamos o atuador para controlar o movimento das cabaças de leitura, o que permite uma movimentação extremamente rápida, nos drives de disquetes é utilizado um antiquado motor de passo. Quando recebe uma carga elétrica, este motor dá um giro completo, giro que através de um sistema de engrenagens faz com que a cabeça de leitura percorra a distância correspondente a uma trilha. Apesar do motor de passo funcionar bem, ele é muito lento, fazendo com que a cabeça de leitura demore cerca de 1/6 de segundo movimentar-se de um canto ao outro do disquete. Somando 160 milessegundos de tempo de busca, com mais 100 milessegundos de tempo de acesso (usando o tempo médio de acesso, que corresponde à meia rotação) O tempo de acesso de um drive de disquetes fica em torno de 260 milessegundos, mais de 25 vezes mais lento do que um disco rígido razoável. Ao contrário dos demais componentes do computador, o drive de disquetes pouco evoluiu nas últimas duas décadas, limitando-se a ter a capacidade dos discos ampliada de 360 KB para 1.44 MB, e seu tamanho reduzido de 5.25 para 3.5 polegadas. Isso é muito pouco se considerarmos que a velocidade dos processadores, assim como a capacidade dos discos rígidos foram ampliadas em quase 10,000 vezes neste período. Apesar dos pesares, ainda hoje utilizamos disquetes, não devido à sua “alta tecnologia”, mas simplesmente devido ao seu baixo custo, como meio de armazenamento e transporte de pequenos arquivos ou documentos. 57
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved