twitterfacebookemail

segunda-feira, 31 de janeiro de 2011

0

IPcalipse: a internet está pequena demais para nós todos

Entenda quais são as mudanças provocadas pela chegada do IPv6 e como ela vai impactar diretamente no seu dia a dia.

A web pode parar?
A internet como você conhece está próxima do fim. Calma, não é preciso entrar em pânico ou correr para baixar tudo aquilo que você deseja antes que alguma espécie de apocalipse aconteça. A solução para o fim da internet já foi encontrada e atende pelo nome de IPv6.
Já em funcionamento em alguns sites, como o YouTube, o novo protocolo permitirá ampliar as possibilidades de acesso à rede de uma maneira sem precedentes. Entenda exatamente o que está acontecendo e como essa sigla permitirá que você navegue pela rede nas próximas décadas.

A estrutura da internet: você é um número

Você pode não gostar muito da ideia, mas para a grande rede de computadores seu computador é apenas um número. A sigla IP significa Internet Protocol, ou Protocolo de Internet. Esse protocolo determina um conjunto de regras para que os computadores possam se comunicar uns com os outros na internet.
Você é apenas mais um na web, mas alguém especial
Para que essa identificação seja facilitada, cada máquina é identificada por um número único. Esse número IP ou endereço IP é a garantia de que você é único na rede e que não haverá nenhuma dúvida quando outra máquina tentar localizar a sua.
Desde a década de 80, a internet utiliza como padrão para esses endereços o IPv4 (Protocolo Internet versão 4). Esse protocolo é composto por endereços de 32 bits, o que possibilita um total de 4.294.967.296 endereços distintos. O número pode parecer grandioso, mas ele está se tornando pequeno e seu limite deve ser alcançado ainda em 2011.
Sim, isso significa que podemos ter em alguns momentos mais de 4.294.967.296 aparelhos conectados simultaneamente na rede. Basta um a mais para que alguém fique de fora e é justamente aí que começaria o apocalipse dos IPs.

IPcalipse: o dia que a internet vai parar

Cuidado, o fim está próximo!
Se as previsões dos especialistas estiverem corretas, o esgotamento dos endereços IPv4 deve acontecer em algum dia no mês de fevereiro deste ano. De acordo com o perfil do Twitter ARPAgeddon o número de IPs disponíveis hoje está em menos de 25 milhões.
Se levarmos em consideração que, atualmente, em cerca de 7 a 10 horas mais de 1 milhão de novos endereços são utilizados, podemos prever com facilidade o caos para algum dia do início do mês de fevereiro. O que exatamente aconteceria? Simples: você tentaria se conectar à web e, sem um número disponível, não conseguiria.
Isso, contudo, não impediria o funcionamento da rede. Como esse número é dinâmico, você poderia revezá-lo com outros usuários, mas o crescimento da rede estaria ameaçado. Pense em novos portáteis e computadores disponíveis, em número cada vez maior, e com menos possibilidades de acesso à rede.

IPv6: a solução para os problemas da rede?

IPv6 pode resolver os problemas da web?
Sabendo que as possibilidades do IPv4 um dia se esgotariam, desde a década de 90 os comitês gestores do serviço de internet em todo o mundo iniciaram suas pesquisas e começaram a trabalhar em novas versões de protocolos. Os esforços resultaram no IPv6 (Internet Protocol versão 6).
As duas novidades mais significativas dos IPv6 ficam por conta da reestruturação da maneira como os IPs são distribuídos e, principalmente, pela quantidade de endereços disponíveis a partir de agora na rede.
Os protocolos IPv6, diferente do IPv4, operam com números em 128 bits em vez de 32 bits. Isso significa, na prática, que o número de endereços disponíveis salta dos 4.294.967.296 para impressionantes 340.282.366.920.938.463.463.374.607.431.768.211.456. O número equivale a cerca de 5,6 x 1028  endereços por pessoa.
Novos dispositivos também poderão ter seu próprio endereço
Com isso, ampliam-se consideravelmente as possibilidades de crescimento da rede. Além dos computadores e celulares, outros dispositivos que atualmente não necessitam, necessariamente, conexão com a internet podem ter seu espaço garantido no futuro.
Geladeiras, relógios, porta-retratos digitais e uma série de outros gadgets poderão se transformar em um endereço de IP na rede sem que, para isso, computadores e celulares estejam ameaçados de não encontrar um espaço disponível.

O que você precisa fazer para não ficar de fora dessa mudança?

Para quem utiliza as versões mais recentes dos sistemas operacionais ou dispõe de computadores e dispositivos mais recentes a transição, do ponto de vista do usuário, será extremamente simples. A maioria deles já conta com suporte para o IPv6.
Se você utiliza Windows e quer checar isso, basta digitar o comando “cmd” no campo de pesquisa do menu Iniciar. Na tela de comando que será aberta digite “ipconfig”. Entre os números listados, um deles será o do IPv6.
Uma rede com, agora sim, infinitas possibilidades?
O maior trabalho, contudo, ficará a cargo dos provedores e serviços de hospedagem. São eles que terão que reescrever as linhas de código para que, quando o usuário tente se comunicar pela rede, utilize automaticamente o endereço IPv6 em vez do IPv4.
No Brasil, as maiores operadoras como GVT, Telefonica e Oi, já estão com processos adiantados para essa transição de forma que é apenas uma questão de tempo para que ela seja definitivamente implantada. Além disso, durante pelo menos os próximos dois anos, as duas versões coexistirão na rede até que, gradativamente, o IPv4 caia em desuso.

Além disso, quais outros diferenciais do IPv6?

A implantação do IPv6 é inevitável, portanto nada melhor do que saber mais sobre ele e conhecer quais são as novidades que o novo protocolo traz consigo além de vasta ampliação no número de endereços.
O IPv6 não requer o uso de NAT  (Network Address Translation), ou seja, a solução paliativa encontrada para melhorar as configurações de segurança, mas devido a muitas dificuldades que trouxe para a rede, foi completamente abandonada.
O suporte ao IPSEC passa a ser obrigatório, garantindo a autenticidade das informações na rede e melhorando as questões de segurança na transmissão de dados. A configuração agora pode ser automática e não apenas manual ou via DHCP.
Há limites para o IPv6
Para facilitar a configuração automática o IPv6 determina um tamanho mínimo /64 para as redes locais, permitindo a ligação de muitos dispositivos diferentes. No IPv4 não havia um tamanho mínimo para uma rede local, o que as tornava mais limitadas.
Para esclarecer toda e qualquer dúvida que possa ter restado sobre o IPv6, o Comitê Gestor da Internet no Brasil (CGI.BR) preparou uma página especial sobre o tema, com explicações detalhadas sobre a novidade e suporte para possíveis duvidas surgidas na transição entre um protocolo e outro.
.....
O que você achou das novidades trazidas pelo IPv6? Acredita que a disponibilidade de endereços será suficiente para suprir as demandas das próximas décadas? Participe deixando o seu comentário sobre o assunto.

sexta-feira, 28 de janeiro de 2011

0

Veja como são produzidos os processadores

Conheça o processo, curiosidades e explicações das próprias fabricantes a respeito dos mistérios que residem no interior dos cérebros dos computadores.


Eles estão presentes em todos os desktops, notebooks, netbooks e muitos eletrônicos que já estão aderindo à inteligência avançada para processamento de dados. Sim, estamos falando dos processadores, os responsáveis pela mágica que move o mundo de diversas formas.
Apesar de conhecermos um pouco sobre eles, o máximo que temos noção diz respeito à velocidade, ao modelo comercial, socket e detalhes que realmente são de alguma forma úteis no cotidiano. No entanto, como será que as fabricantes desenvolvem tais componentes? De onde vem o material utilizado para a construção de uma CPU? Quantas pequenas peças tem um processador?
Estas e outras perguntas serão respondidas neste artigo, que visa mostrar a alta complexidade da fabricação dos processadores, através da simplicidade das imagens, vídeos e respostas rápidas que preparamos para você. No entanto, antes de entrar nesses méritos, vale uma retrospectiva e uma observação especial nas curiosidades destes cérebros digitais.
Curiosidades

Os átomos dos computadores

Você já deve conhecer o átomo. A menor partícula da matéria. Os processadores também possuem átomos, porém na construção dos processadores os cientistas não conseguem manipular elementos tão ínfimos. Sendo assim, o que consideramos como átomos são os transistores, pequenos componentes presentes em quaisquer aparelhos eletrônicos.
Basicamente, os transistores são os únicos componentes inteligentes na eletrônica (considerando apenas os de funções básicas). A diferença entre eles e os resistores, capacitores e indutores, está na tarefa executada. Enquanto os demais itens manipulam a energia elétrica de forma simples, os transistores aproveitam-na para funcionar como interruptores e amplificadores.
Transistor de 32nm
Fonte da imagem: divulgação/Intel
Apesar da complexidade do parágrafo acima, o importante é saber que quando em conjunto, muitos transistores podem realizar complexas. E é justamente por isso que eles existem em abundância nos processadores. Como você percebeu em nosso infográfico, os primeiros processadores já contavam com milhares de transistores. Os mais evoluídos passaram para os milhões. E os atuais chegam a bilhões.
E como cabe tudo isso dentro de um espaço tão pequeno? Bom, imagine o seguinte: se em uma caixa de fósforos podemos colocar 20 palitos grandes, na mesma caixa poderíamos colocar o dobro de palitos com a metade do tamanho. Assim acontece com os transistores, para colocar mais deles em um mesmo espaço, as fabricantes reduzem o tamanho. Aliás, reduzem muito!



A diminuição de tamanho é tão grande que nem sequer podemos ver a olho nu um transistor. Eles alcançam a casa das dezenas de nanômetro, ou seja, muito mais fino que um fio de cabelo. No entanto, não é só pelo tamanho que consideram os transistores como átomos dos processadores, mas principalmente pela função realizada. Assim como os átomos são fundamentais para quaisquer seres vivos, os transistores são essenciais para o funcionamento das CPUs.
Outro aspecto importante a comentar está relacionado ao formato. Enquanto um transistor comum, em geral, tem formato quadrado e três “pernas”, os transistores construídos com nanotecnologia perdem esta característica, parecendo-se muito mais com partículas. Bom, agora que já falamos dos transistores, vale assistir a um vídeo da AMD:


A primeira etapa: diagrama dos circuitos

Antes de começar a fabricação dos processadores, os projetistas e engenheiros criam o diagrama de circuitos. Este diagrama é uma espécie de desenho que vai determinar que peça ficará em determinada posição dentro de uma CPU. Tal tarefa exige conhecimento avançado, tanto sobre os componentes existentes para a fabricação quanto sobre as tecnologias que poderão ser utilizadas.
Parte da diagramação de circuitos
Fonte da imagem: divulgação/AMD
A diagramação dos circuitos é construída em diversos locais de maneira colaborativa. Muitos estudiosos sugerem opções para a geração de um diagrama funcional e que possa oferecer alternativas mais eficientes e viáveis. Nesta primeira etapa surge a arquitetura dos processadores.
Através de muita análise, os engenheiros decidem a quantidade de memória cache, os níveis de memória, a frequência, os padrões da CPU e detalhes específicos quanto ao modo como o chip principal vai utilizar a memória cache. Claro que, a diagramação vai muito além e em geral é um processo longo. Os engenheiros precisam planejar com muita antecedência a CPU, pois ela será comercializada alguns meses (ou até um ano) depois.

Começa a fabricação: da areia para o chip

Você já reparou na quantidade de areia que existe em uma praia? Então, ela não serve apenas para fazer castelinhos, pois também tem utilidade na fabricação dos processadores. É isso mesmo: a areia é o fundamento de uma CPU e, evidentemente, após muitas transformações ela passa a ser um elemento inteligente no seu computador.
A areia tem em sua constituição 25% de silício, que por sinal é o segundo elemento mais abundante em nosso planeta. E aí é que está o segredo dos processadores. A areia, propriamente dita, não serve para a construção, no entanto o silício é um cristal excelente.
O material básico para os processadores
Fonte da imagem: divulgação/Wikimedia Commons
De onde a areia é retirada? Nenhuma fabricante relata exatamente o local de obtenção, pois nem sempre elas buscam exatamente areia comum. Segundo informação da Intel, a matéria-prima de onde retiram o silício é o quartzo. Este mineral é rico em dióxido de silício (SiO2), material que realmente é a base de tudo.
Não seria possível construir com outro elemento? Com certeza! Inclusive existem transistores constituídos de outros elementos químicos (como o Gálio, por exemplo). Todavia, as indústrias, geralmente, optam pelo silício justamente pelo baixo custo e devido à abundância deste elemento.

O silício em seu estado mais puro

Para construir um processador não basta pegar um pouco de areia e apenas extrair o silício. A fabricação de uma CPU exige um nível de pureza perfeito, algo em torno de 99,9999999%. Isso quer dizer que a cada 1 bilhão de átomos, somente um não pode ser de silício. O silício é purificado em múltiplas etapas, para garantir que ele atinja a qualidade máxima.
Processo para obter o lingote
Fonte da imagem: divulgação/Intel
Este processo de purificação é realizado através do derretimento do silício. Após atingir uma temperatura de altíssimo nível (superior ao nível de fusão), as impurezas deixam o silício isolado, de modo que o material esteja em sua forma mais natural. Ao realizar esta etapa, as fabricantes costumam criar um grande lingote (uma espécie de cilindro).

Wafers: o processador começa a tomar forma

Um lingote costuma pesar em média 100 kg, no entanto este cilindro não tem utilidade com o tamanho avantajado. Sendo assim, é preciso cortar o lingote em fatias, de modo que se obtenham pequenos discos de espessura reduzida (algo em torno de 1 mm).
Fatiando o lingote
Fonte da imagem: divulgação/Intel
Estes discos também são conhecidos como wafers. Eles possuem uma estrutura química perfeita e é onde os transistores serão encaixados posteriormente. Apesar de serem muito finos, eles não são muito pequenos. O tamanho varia conforme a fabricante, a Intel, por exemplo, utiliza wafers com 30 cm de diâmetro.
Segundo a Intel, a estratégia de utilizar discos maiores é útil para reduzir os custos de produção. Até porque, as duas maiores fabricantes de processadores (AMD e Intel) compram os wafers prontos. Após o corte dos wafers é necessário polir a superfície para obter faces tão brilhosas quanto um espelho.

Entrando nas “salas limpas”

Antes de dar continuidade ao nosso processo de construção, precisamos nos localizar. Tendo os wafers prontos, as fabricantes não podem deixar que nenhuma partícula de poeira chegue perto deles. Para isto é preciso ter um ambiente com higienização perfeita. Conhecidos como “salas limpas”, os laboratórios para fabricação de processadores são até 10 mil vezes mais limpos do que uma sala de cirurgia.
Roupas especiais para trabalhar nas salas limpas
Fonte da imagem: divulgação/Intel
Para trabalhar em um ambiente como este é preciso utilizar trajes especiais. Os trajes são tão complexos que até mesmo os funcionários das fabricantes levam alguns minutos para vestir todos os acessórios apropriados para evitar contato com os wafers.

Inserindo o desenho no wafer

Agora que os discos de silício estão em um ambiente apropriado, é necessário aplicar o processo foto-litográfico. Este processo é que vai determinar o “desenho” principal do processador. Para a realização deste passo, as fabricantes aplicam um material foto-resistente ao wafer (o material varia conforme a empresa, a AMD demonstra com um material de cor vermelha, a Intel com um de cor azul).
Material foto-resistivo aplicado ao wafer
Fonte da imagem: divulgação/Intel
Depois é aplicado luz ultravioleta para realizar a transferência do diagrama de circuitos (aquele comentado no começo do texto) para o wafer. A luz incide sobre o circuito (em tamanho grande), o qual reflete o desenho em uma lente. Esta lente vai diminuir o tamanho do circuito, possibilitando que a escala seja reduzida com perfeição para o tamanho necessário. Por fim, a luz refletida pela lente sobre o wafer fica gravada e pode-se dar continuidade ao processo.
O desenho aplicado ao wafer
Fonte da imagem: divulgação/Intel
As partes que foram expostas a luz ficam maleáveis e então são removidas por um fluído. As instruções transferidas podem ser usadas como um molde. As estruturas agora podem receber todos os minúsculos transistores.

Wafers prontos: hora de jogar os átomos

Depois que os wafers foram preparados, eles vão para um estágio onde as propriedades elétricas básicas dos transistores serão inseridas. Aproveitando a característica de semicondutor do silício, as fabricantes alteram a condutividade do elemento através da dopagem. Assim que os átomos estão dopados, eles podem ser “jogados” na estrutura do wafer.
Jogando átomos no wafer
Fonte da imagem: divulgação/Intel
Inicialmente, os átomos (carregados negativamente e positivamente, também conhecidos como íons) são distribuídos de maneira desordenada. No entanto, ao aplicar altas temperaturas, os átomos dopados ficam flexíveis e então adotam uma posição fixa na estrutura atômica.

Ligando tudo

Como cada estágio é realizado em uma parte diferente da fábrica, algumas partículas de poeira podem ficar sobre o processador. Sendo assim, antes de proceder é preciso limpar a sujeira depositada sobre o circuito.
Agora passamos ao próximo estágio da fabricação, em que o cobre é introduzido no processador. No entanto, antes de aplicar este elemento, uma camada de proteção é adicionada (a qual previne curtos-circuitos).

Cobre

Agora sim o cobre pode ser adicionado na estrutura do processador. Ele servirá para ligar bilhões de transistores. O cobre vai preencher os espaços que ficaram sobrando no wafer. Depois que tudo está devidamente ligado, temos circuitos integrados que vão agir em conjunto. Como a quantidade de cobre é adicionada em excesso, é preciso removê-la para que o wafer continue com a mesma espessura.
Depositando cobre
Fonte da imagem: divulgação/Intel
Detalhe: desde o começo da fabricação até a etapa atual, todas as etapas são acompanhadas com o auxílio de um microscópio de alta qualidade. Assim, os engenheiros visualizam as mínimas partes de cada transistor individualmente, o que garante a perfeição nos componentes internos do processador.
O processo para a criação de um wafer leva cerca de dois meses. No entanto, como um wafer comporta muitos chips, as fabricantes conseguem milhares de processadores em cada remessa de produção.

O último passo: o processador como conhecemos

Finalmente, um número absurdo de contatos é adicionado a parte contrária do wafer. O wafer será cortado em diversas partes para gerar vários processadores. No entanto, cada pedaço do wafer não é uma CPU, mas apenas um die – nome dado ao circuito principal.
O die é “colado” sobre uma base metálica, também conhecida como substrate. O substrate é a parte de baixo do processador e será a responsável por interligar os circuitos internos da CPU com os componentes da placa-mãe. Esta ligação é realizadas através de pinos metálicos – os quais serão encaixados no socket.
Etapa final
Fonte da imagem: divulgação/Intel
Outro componente semelhante a uma chapa metálica é colocado em cima do die. Este item é conhecido como heatspreader (espalhador de calor) e servirá como um dissipador. É no heatspreader que serão adicionados a logo da fabricante, o modelo do processador e futuramente será o local para aplicação da pasta térmica.

O processador chega a uma loja perto de você

Depois de juntar os três itens principais, o processador será testado mais uma vez – durante o processo de fabricação ele já foi testado diversas vezes. Caso os testes indiquem que tudo está normal, o produto será embalado.
O processador como você conhece...
Fonte da imagem: divulgação/AMD
Evidentemente, até este processo segue padrões rígidos, afinal todas as CPUs devem chegar com o mesmo padrão de qualidade até o consumidor. Muitos produtos serão enviados diretamente para montadoras, as quais já firmaram contratos prévios com as fabricantes. Outros serão encaixotados para a venda em lojas de informática.

Pronto para fabricar o seu?

Basicamente o processo de fabricação consiste nos passos apresentados neste artigo. É claro que não abordamos a inserção da memória cache, a fabricação dos transistores e adição de diversos componentes que vão nas CPUs.
Todavia, as próprias fabricantes não revelam muito sobre este assunto, justamente porque não veem necessidade de que os consumidores obtenham tais informações – além de que isto pode ajudar a cópia de métodos por parte das concorrentes.
O que você achou sobre este artigo? Tem alguma informação para adicionar? Compartilhe seu conhecimento conosco e os demais usuários!

quinta-feira, 27 de janeiro de 2011

0

Wireless: diferenças entre as gerações b, g e n

Os modelos e padrões criados para as redes sem fio sempre estiveram em evolução. Conheça um pouco mais sobre eles nas linhas abaixo.


Ao comprar um novo dispositivo wireless ou pesquisar pela Internet sobre o tema, você já deve ter encontrado diversas nomenclaturas diferentes para ele, envolvendo termos como 802.11b, 802.11g e recentemente o 802.11n. Mas você sabe o que estes números e letras significam e qual a real diferença na hora de escolher o seu novo dispositivo para redes sem fio?
Nas linhas abaixo, descreveremos um pouco mais sobre os principais termos encontrados em diversas situações que envolvem o mundo wireless. Tudo é bem mais simples do que parece, e em questão de poucos minutos você saberá exatamente o que está comprando ou ainda utilizando em sua casa.
Este artigo não visa se aprofundar nas questões técnicas que envolvem os processos das conexões sem fio, descrevendo apenas algumas informações essenciais sobre os modelos mais famosos do tema, além das principais características de cada um deles.
Um breve retrospecto
Na realidade, falar dos padrões mais famosos nas redes sem fio, intitulados de b, g e n, após o número 802.11, é basicamente contar um pouco sobre a história desse tipo de comunicação. Eles remetem a etapas do desenvolvimento das redes wireless, com características bem marcantes em cada fase.

802.11 – O início
Esta é a nomenclatura inicial para as redes sem fio, que foi desenvolvida em 1997 pelo Instituto de Engenheiros Elétricos e Eletrônicos, o que explica a sigla IEEE encontrada em diversos artigos e componentes wireless.
Embora fosse uma grande inovação na época, o sistema apresentava uma taxa máxima de transferência muito baixa, próxima de 2MB/s. Por esse motivo, o padrão foi logo deixado de lado, propiciando o avanço em outras vertentes da rede sem fio.
802.11b – O primeiro grande sucesso
Dois anos depois do surgimento das primeiras redes sem fio, um novo padrão estava chegando ao mercado. Intitulado 802.11b, ele apresentava taxas de transferência de até 11MB/s, algo surpreendente para a época.
Todo mundo conectado!
O maior erro dos desenvolvedores nesse sistema foi o uso das mesmas freqüências de operação de diversos aparelhos domésticos para ele, como microondas, telefones sem fio e quaisquer outros dispositivos que operam em valores próximos a 2.4GHz, o que poderia causar interferências dependendo do local em que o modem se encontrava.
No entanto, fazer uso desse padrão permite que o sinal fique aceitável até mesmo para distâncias um pouco grandes, sendo talvez essa a maior vantagem dele.
802.11a – Deixado de lado pelo alto custo
Este padrão ficou quase desconhecido por nós, usuários comuns, devido ao seu custo mais elevado e pela baixa quantidade de vendas se comparado ao anterior. Seu desenvolvimento foi realizado concomitantemente ao padrão b, mas apenas algumas empresas aderiram a ele.
A quantidade de dados transferidos por segundo tinha 54MB como limite, atuando em freqüências reguladas próximas a 5GHz, o que anulava os problemas com outros aparelhos. O ponto negativo da alta freqüência é a menor abrangência do sinal, dificultando a conexão em casas ou escritórios maiores.

802.11g – O modelo atual
Pensando nas vantagens trazidas pelos dois modelos anteriores, os desenvolvedores acabaram unindo algumas de suas melhores características, criando o padrão 802.11g, o que temos atualmente em conexões de rede sem fio.
Encurtando distâncias.
Desta forma, ele apresenta a transferência de 54MB/s, também utilizando freqüências próximas a 2.4 GHz para uma melhor abrangência de sinal. Vale ressaltar que o novo padrão é retrocompatível com os anteriores, fazendo com que dispositivos lançados agora acessem as redes antigas, e vice-versa.
802.11n – Um novo padrão a caminho
Em 2009, está para ser lançado um novo modelo de comunicação sem fio, levando a letra n em seu final. Ele é baseado em um projeto chamado de MIMO, que realiza múltiplas conexões de entrada e saída para melhorar as taxas de transferência e abrangência do sinal.
Chega de fios por todos os lados.Os números iniciais prometidos ultrapassam os 100MB/s, o que seria ideal para o avanço tecnológico das próprias conexões normais, que apresentam velocidades extremamente grandes atualmente. Da mesma forma que ocorre com o padrão g, a nova tecnologia terá total compatibilidade com sistemas mais antigos, sem que você precise se preocupar com isso por enquanto.
Compre sem medo
O mais importante na hora de realizar uma compra é saber que o padrão atual para redes wireless ainda é o 802.11g, que será substituído pelo n em breve. Comprando esse modelo, você aproveitará o melhor que uma rede atual pode oferecer. Tente evitar os padrões b ou a, que já estão ultrapassados.
Enquanto isso, esperamos pela chegada das novas conexões e dispositivos sem fio, que não devem demorar muito. 

quinta-feira, 20 de janeiro de 2011

0

ENTENDA PORQUE VOCÊ NÃO PRECISA FORMATAR O WINDOWS FREQUENTEMENTE

Diga adeus às formatações constantes do sistema operacional, adotando medidas de utilização consciente.

Ainda hoje, há muitos usuários que possuem o hábito de formatar o sistema operacional a cada vez que ele começa a ficar mais lento. Essa é uma prática que já vem sendo utilizada há mais de uma década, pois era essa a melhor forma de corrigir erros do Windows 95 ou 98. Mas a verdade é que, hoje, esse tipo de ação não é tão necessária, pelo menos não com tamanha frequência.
Com a popularização dos computadores, muitos novos usuários surgiram. O número de desenvolvedores também aumentou bastante, fazendo com que novos gêneros de programas fossem criados, como é o caso dos otimizadores de sistema, que hoje são uma mão na roda para todos aqueles que precisam melhorar seu sistema operacional, evitando a demanda por formatações.
Formatar é o último recurso

A origem do mito

Quando os computadores ainda não eram tão populares, não existiam tantos programas especializados em limpeza de registro e afins, o que fazia com que as máquinas ficassem mais pesadas a cada dia. Instalações de programas sem utilidade também era uma das principais causas desse peso extra nas máquinas.
Desinstalações também eram, constantemente, causas de problemas. Muitos programas, ao serem removidos, levavam DLLs importantes junto ou então deixavam muitos rastros, o que impedia que o sistema operacional fluísse da maneira mais suave possível, como ocorre antes de instalarmos os primeiros programas.
Os velhos tempos do Windows 95.
Por essas razões, muitos encontravam na formatação do disco rígido, a única saída para que os computadores voltassem a oferecer capacidades condizentes com as que foram adquiridas pelo consumidor. Assim, instaurou-se uma cultura de formatações constantes em grande parte das comunidades dos usuários de Windows.
Hoje, esta história é completamente diferente e existem softwares de otimização que se encaixam em qualquer perfil de usuário, desde os iniciantes até os mais experientes e exigentes. Por isso, o Baixaki preparou este artigo, reunindo algumas das principais dicas para que a formatação do disco rígido torne-se um último recurso, em vez de ser a muleta dos usuários.

Jeito correto: uso consciente

O melhor modo de evitar que seja necessário formatar o computador é fazer com que ele não chegue ao limite. Para isso, recomenda-se o uso consciente da máquina, sempre pensando em qual a melhor maneira de manter espaço em disco, sem que os aplicativos ou documentos essenciais para o usuário sejam excluídos. Acompanhe algumas das dicas que reunimos para mostrar como é possível manter o computador com o melhor funcionamento possível.
Consciência para evitar problemas

Instale apenas o essencial

Você trabalha com edição de imagens ou utiliza os softwares de edição para tarefas mais corriqueiras? Se só precisa de programas deste tipo para realizar alguns pequenos redimensionamentos ou alterações, opte por instalar programas mais leves, como o PhotoScape ou Paint.net. O Photoshop, apesar de mais completo, possui muitos recursos que só são utilizados por designers profissionais.
Paint.Net resolve muitos problemas
O mesmo deve ser aplicado a todos os outros tipos de software. Aplicativos muito pesados ocupam espaço desnecessário do disco rígido e, quando abertos, demandam muitos recursos de processamento, que poderiam ser destinados a outras tarefas.
E isso é apenas a ponta do iceberg. Há muitos usuários que instalam muitos programas que realizam funções parecidas e este acúmulo de “lixo eletrônico” acaba gerando lentidões insuportáveis. O que nos leva até a segunda dica deste artigo:

Desinstale aplicativos abandonados

Quanto mais programas você tiver em seu computador, mais espaço será ocupado e maiores serão os caminhos percorridos pelo sistema para ler todas as tarefas. Não é raro encontrarmos novos softwares que realizam todas as funções que outro já fazia, adicionando apenas uma ou outra funcionalidade.
Quando isso acontece, o mais recomendado é excluir o aplicativo anterior, deixando apenas o programa mais completo no sistema. Por exemplo, para conversões de arquivos, o Baixaki indica o Format Factory, que possui uma enorme gama de formatos para vídeos, músicas e vários outros. Essa reunião evita a necessidade de vários aplicativos com funções similares no computador.
Lixo demais é peso desnecessário

Limpar é preciso! Formatar não é preciso...

Já que temos uma infinidade de aplicativos para limpeza e otimização do sistema operacional, não há motivos para não usá-los. Há muitas opções excelentes disponíveis de maneira gratuita, ou seja, você não precisa gastar centavo algum para conseguir fazer seu computador voltar a apresentar ótimos resultados.
Sabendo combinar dois ou três programas, o sistema fica como novo em poucos minutos. Por exemplo, utilizando o CCleaner para excluir rastros de navegação, cookies e limpeza de registro, a utilização do Advanced SystemCare apenas complementa o serviço, garantindo que até mesmo alguns pequenos trechos de fragmentação sejam corrigidos.
CCleaner para todos os computadores
Uma opção nacional, também excelente, é o Portinho. Este aplicativo, criado por um desenvolvedor independente brasileiro, faz limpezas profundas no Windows, deixando o sistema muito mais leve para evitar aqueles fios de cabelo branco na cabeça dos usuários.
.....
Seguindo essas dicas, dificilmente seu computador precisará de formatações constantes. É claro que existem alguns casos em que a formatação é inevitável, mas deixemos essas medidas drásticas para situações que as demandem. Sabendo utilizar o computador de maneira consciente, o sistema flui facilmente.
Gostou das dicas do Baixaki? Será que você conhece outros hábitos que podem ser seguidos para que os computadores precisem de menos formatações? Deixe um comentário contando suas formas de garantir o bom funcionamento do Windows.

segunda-feira, 17 de janeiro de 2011

0

Messenger Discovery Live

Tauanny Gracy usa Messenger Discovery Live e indica pra todos que querem algo a mais na hora de conversar com seu amigos.


"Imite seus amigos, envie mensagens de erro e saiba quem deletou você. Agora o MSN ficou bem mais interessante!"


Você pensa que as pessoas que ficam mandando mensagens estranhas pelo MSN são hackers ou dominam linguagens de programação? Messenger Discovery Live BETA 2 é a prova definitiva que qualquer um que utiliza o Windows Live Messenger pode brincar com seus contatos e aproveitar tudo que o comunicador tem de melhor.
O Messenger Discovery é um programa pequeno que funciona como um add-on do MSN que acaba de receber sua nova versão. Ele se agrega ao mensageiro como o Messenger Plus! e lhe permite uma série de novas opções dentro do MSN. Dessa maneira você pode aproveitar ainda mais as novas opções do seu MSN e mudar a maneira com que você se comunica.
UM LEQUE DO NOVAS OPÇÔES
Após instalar o programa, o usuário poderá notar um novo ícone próximo do seu relógio, clique nele para ter acesso às suas opções. Na opção contatos você confere a lista completa dos seus amigos que se encontram online. O mais interessante é que você confere detalhes de cada um para saber se algum deles já deletou ou bloqueou você, qual versão do programa estão utilizando e dados sobre a conversa. Nesta janela você também tem acesso a opções para deletar o contato, enviar mensagens, roubar detalhes e para destacar o contato.
Veja quem te bloqueou!
Nesta nova versão, existe uma infinidade de coisas para incrementar ainda mais o seu Windows Live Messenger. Clicando com o botão direito do mouse sobre o ícone presente na bandeja de relógio do Windows e acessando a opção “Settings”, você poderá modificar diversas opções de uso deste aplicativo, inclusive alterar seu idioma para português brasileiro.
Será possível realizar diversas configurações, de modo a usufruir de tudo o que o Messenger Discovery Live tem a oferecer. São ao todo sete abas diferentes repletas de opções como poligamia (permitir o funcionamento de mais de um Windows Live Messenger ao mesmo tempo), remover anúncio da lista de contatos, renomear a janela de contatos e muito mais.
Destaque especial para a seção “Mensagens” que possui opções de envio e recebimento de mensagens. Aqui poderá ser liberado o envio ilimitado de pedidos de atenção e, ao contrário, desabilitar o tremelique da tela quando algum contato faz o mesmo. Outras opções como habilitar um aviso para quando você for bloqueado por algum contato e não exibir aviso enquanto sua mensagem é digitada também estão presentes.
Altere diversas opções
A seção “Alertas” são também algo bastante interessante, pois permite a ativação de diversos novos alertas, diferentes dos convencionais. É possível, inclusive, emitir um alerta quando determinado contato possivelmente estiver aparecendo como invisível! Enfim, além destes recursos já citados, o programa possui vários outros que valem a pena ser conferidos. Leia mais sobre alguns deles logo abaixo.
Roubar contatos
Para roubar detalhes do perfil de seus amigos selecione o contato que você deseja e escolha qual detalhe quer copiar: apelido, mensagem pessoal, foto ou mesmo todos ao mesmo tempo. O destaque de contato abre uma pequena janela com breves informações sobre a pessoa que permanece em sua área de trabalho, clique em cima dela para abrir uma janela de conversa com ela.
Roube informações de seus contatos
Selecionando a opção de preferências você tem acesso a todas as opções do MSN e às afinações que podem ser feitas no Messenger Discovery Live BETA 2. O usuário também encontra aqui um novo gerenciador de imagens para alterar a sua aparência, especialmente útil para quem gosta de trocar de fotos constantemente ou roubar imagens dos demais usuários.
COMANDOS, COMUNICAÇÃO AVANÇADA
Muita gente já deve ter ouvido sobre as mensagens fantasmas ou excentricidades ocorridas durante as conversas no Messenger. Bem, aqui você confere uma lista completa de linhas de comando que permitem que você envie mensagens como as de erro do MSN, se desconecte e elabore diferentes situações.
Como funcionam?
Com a janela de conversa aberta digite o código referente à ação desejada. Cada um deles executa uma ação diferente, dependendo da ação é preciso entrar com palavras ou mensagens posteriores para que o comando se torne válido. Confira abaixo uma lista com os comandos e um exemplo do mais interessante deles.
Para fazer com que seu amigo se confunda e pense que foi ele mesmo que escreveu determinada mensagem digite “!imitate olá”. Desta maneira o seu contato não irá receber a palavra !imitate, recebendo apenas “Olá” como se fosse ele mesmo quem enviou a mensagem. O mais interessante deste comando é que ele copia com perfeição a fonte e os detalhes do perfil imitado, fazendo com que seus colegas se sintam confusos.
Imatação de mensagem.
Confira todos os comandos válidos para esta versão
  • !autoion - começa a imitar todas as mensagens seguintes.
  • !autoioff - desabilita a imitação de mensagens.
  • !autoresponse - envia uma resposta automática para cada mensagem recebida, digite novamente para desabilitá-lo.
  • !error - envie uma mensagem como as chamadas do próprio MSN.
  • !failed - este comando faz com que seu amigo pense que sua última mensagem tenha falhado.
  • !fakeapp - envia um convite falso ao seu contato.
  • !font - envia uma transferência de arquivos com a sua fonte atual.
  • !imitate - comando para imitar seu contato.
  • !me - enviar mensagens que descrevem ações.
  • !send - alternativa para o envio de arquivos.
  • !psm - altera sua mensagem pessoal.
  • !nick - altera seu apelido.
  • !im - abre uma janela de conversa com o contato do e-mail digitado.
  • !signout - desloga o seu MSN.
Histórico de acontecimentos
Entre tantas opções e alternativas para o envio de mensagens, para que você não se perca diante das possibilidades a ferramenta disponibiliza ainda um histórico de acontecimentos. Dessa forma você pode rever o tempo exato em que tudo ocorreu em seu MSN desde o instante que ele foi logado. Revise o momento que algum contato entrou ou saiu, janelas de conversas foram abertas, mudança de status e mensagens pessoais entre outros acontecimentos.

POSTADO POR ANDER.

domingo, 16 de janeiro de 2011

0

Por que os processadores ARM podem mudar o rumo dos dispositivos eletrônicos?

Entenda como essa arquitetura, existente desde a década de 80, pode representar um avanço sem precedentes para os dispositivos portáteis.


O futuro dos processadores

“Por muitos anos, desenvolvedores da área de computação de alta performance tiveram poucas escolhas graças a arquitetura x86. O projeto Denver liberta PCs, estações de trabalho e servidores da hegemonia e ineficiência dela”.
A afirmação anterior é de Bill Dailly, VP de Pesquisa da NVIDIA, e é muito provável que, graças ao trabalho de pesquisa no qual está envolvido, o mundo da tecnologia esteja iniciando uma nova revolução capaz de ampliar sem precedentes as possibilidades para os usuários,que passam a ter verdadeiros supercomputadores na palma da mão.
Isso pode ser possível graças ao desenvolvimento da arquitetura ARM (Advanced RISC Machine) de processamento, tecnologia existente desde a década de 80 e atualmente voltada para dispositivos portáteis. A novidade é que estamos muito próximos de conhecer microprocessadores ARM capazes de obter um desempenho tão eficiente quanto o do computador mais potente que você tem em sua casa.
Mas como isso é possível? Qual o mistério existente por trás dessa revolução silenciosa e quais são as empresas que podem se beneficiar delas nos próximos dois anos? É hora de entender por que os processadores ARM podem representar uma mudança de paradigmas no mundo tecnológico.

Duelo de arquiteturas: ARM x x86

Tecnologia ARM representa uma revolução?

A arquitetura ARM não é exatamente uma novidade, pelo contrário. Criada em 1983, ela está prestes a completar três décadas de existência e vê agora as suas possibilidades ampliadas. Desenvolvida pela inglesa Acorn Computer Limited, foi à época o primeiro processador RISC criado para uso comercial.
Até então, a maioria dos computadores utilizava a arquitetura CISC, com suporte instruções complexas, simultâneas e de execução mais lenta — mas que resultavam em códigos menores, pela simplificação da estrutura de programação decorrente e menos entradas e saídas (diminuindo assim a necessidade de memória).
Os RISC, por outro lado, visam a simplificação dessas instruções, com o intuito de atingir a máxima eficiência por ciclo (podendo realizar tarefas menores com processos mais curtos) e uma maior ordenação das operações dentro do núcleo de processamento.
Por terem um número menor de circuitos internos, os RISC também podem trabalhar com clocks mais altos. Cabe observarmos, no entanto, que as divisões entre estes dois termos estão se tornando cada vez mais nebulosas, uma vez que os processadores modernos já combinam as duas linhas em suas diferentes camadas de hardware.
Hoje, a tecnologia ARM é administrada pela ARM Holdings, que licencia o projeto a grandes empresas (ou governos, como o da China) que queiram desenvolvê-lo em chips próprios. É importante observarmos que mudanças benéficas desenvolvidas por terceiros podem ser incorporadas à arquitetura — ao contrário do que se vê no caso da x86.
Os processadores ARM representam hoje a maioria absoluta em equipamentos portáteis. iPhone, Palm Pre, calculadoras, smartphones e até mesmo alguns notebooks utilizam essa tecnologia para as operações de processamento.
Tecnologia ARM exite desde a década de 80

No mercado de computadores, no entanto, ainda persiste a arquitetura x86 com as extensões x64, principalmente por razões de compatibilidade de software. A questão é que o código das duas é binariamente incompatível — o que torna inviável a execução do Windows 7 no ARM, por exemplo, ainda que programas de menor porte possam ser adaptados.
A arquitetura x86 pode ser considerada como de alta complexidade, por apresentar diversos estágios de processamento de dados (como o carregamento de informações, a decodificação, alocação de memória, entre outros) e possuir microcodes, responsáveis pela interpretação das instruções, transformando-as em processos físicos.
Como resultado desse conjunto mencionado acima, o que se tem é o alto desempenho, mas que infelizmente vem acompanhado de um maior consumo de energia e também da necessidade de mais espaço físico, tornando-os completamente incompatíveis com a proposta de aparelhos portáteis.
Assim, a indústria na maioria das vezes prefere abrir mão de potência e desempenho brutos em prol de portabilidade e da maior eficiência dos dispositivos, características que a arquitetura ARM é capaz de proporcionar com melhores resultados. É por isso, por exemplo, que recursos como multitarefa, demoraram um pouco mais a aparecer nos smartphones, assim como a evolução gráfica dos games também é inferior ao que os desktops e notebooks são capazes de exibir.

Afinal, qual é a novidade do ARM?

Tecnologia ARM chega oa mercado para valer em 2012

Depois de décadas de pesquisas e investidas, as técnicas ARM finalmente estão despertando o interesse das gigantes dos computadores (caso da Microsoft, que agitou a CES 2011 com seu anúncio, tratado adiante). Com a alta eficiência da arquitetura somada à liberdade propiciada pelos equipamentos de maior porte, o que surgirá será um processador verdadeiramente potente, quem sabe até de menor custo.
O Project Denver, da NVIDIA, também traz consigo um processador gráfico dedicado, eliminando parte da complexidade de hardware (por serem eliminados chipsets, portas e outros controladores externos) e abrindo espaço para operações mais rápidas, geradas em um único local.
Em termos práticos, veremos computadores extremamente velozes (que podem sim ser amparados por outros núcleos externos, como as atuais placas de vídeo dedicadas), enquanto fabricantes de notebooks e netbooks encontrarão a ferramenta perfeita para criar produtos mais leves, finos e portáteis, com maiores durações de bateria — algo que se aplica também ao mercado de celulares.
Vale lembrar que a NVIDIA é apenas uma das empresas à frente do conceito de superphones. Grandes corporações como Samsung e Qualcomm também já possuem produtos no mercado compatíveis com essa estrutura de processamento.

O ARM pode matar o x86?

Superphone da LG
 Fonte da imagem: LG

No mundo da tecnologia, é muito complicado fazer qualquer afirmação definitiva nesse sentido. Entretanto, analisando apenas a teoria, a resposta para essa pergunta é sim. Porém, se isso acontecer, muito provavelmente não será nos próximos cinco anos, já que muito desse esforço dependerá da própria indústria.
Durante a CES 2011, em sua conferência, a NVIDIA utilizou dois exemplos para explicar o que pensa do momento atual do desenvolvimento tecnológico. Na década de 90, o sistema operacional Windows 95 representou uma grande evolução ao ampliar as possibilidades da computação para todos os usuários.
Na década passada, foi a vez de integrar os sistemas operacionais com a internet, conectando o mundo todo. Segundo a empresa, a bola da vez é levar as possibilidades da internet e dos computadores para as ruas, com a mobilidade. Assim, o usuário terá em seu bolso antes de tudo um computador, que também terá as funções de um telefone.
Contudo, para que isso seja possível, é preciso também que os usuários adotem a nova tecnologia e, historicamente, esse processo está acontecendo cada vez mais rápido. Dois exemplos rápidos: em pouco mais de um ano o Windows 7, lançado pela Microsoft, já representa mais de 30% do mercado entre os SOs da empresa.
O mesmo acontece com o Android, que têm as suas versões atualizadas com muita velocidade e em pouco menos de 2 anos já conta com uma base de 60 milhões de usuários somente nos Estados Unidos.
LG Optimus Black
 Fonte da imagem: LG

Assim fazendo uma projeção simplista, a partir do lançamento dos primeiros modelos em 2011 e consequente integração com novos sistemas operacionais em 2012, caso o produto caia no gosto popular, é provável que até 2015 ele já possa representar pelo menos ¼ dos smartphones em utilização.
Empresas que saem na frente
Processadores ARM
Fonte da imagem: ARM

Os primeiros modelos de superphones a chegar ao mercado utilizarão o Android como sistema operacional. Entretanto, para que a adoção seja completa e as possibilidades sejam maiores, o natural seria utilizar os mesmos SOs dos desktops para os superphones. Os exemplos são diversos, tais como Linux e Windows CE, mas nenhum representa sucesso comercial.
E é justamente na questão de sucesso e apelo de público Microsoft. Causou surpresa ao público da CES o fato da NVIDIA anunciar que a empresa já está desenvolvendo um sistema operacional capaz de ser executado na arquitetura ARM. A novidade deve chegar ao mercado em 2012.
Qual seria esse sistema? Provavelmente o Windows 8. A utilização de uma nova arquitetura justificaria o fato de o intervalo entre o lançamento do Windows 7 e a próxima versão do SO da Microsoft serem tão curtos. Dessa forma, computadores e celulares poderiam rodar o mesmo sistema operacional, em um curto espaço de tempo, e com um grande volume de usuários adotando-o imediatamente.
E quanto a gigante Google? A convergência de sistemas operacionais coloca a empresa numa posição relativamente cômoda, porém, a indecisão entre um ou outro pode acabar pesando negativamente no futuro. Tanto o Android como o Chrome OS já são capazes de rodar sobre a arquitetura ARM.
A dúvida sobre o posicionamento que a empresa irá adotar é a seguinte: o Android é a melhor opção para ser adaptado para notebooks e desktops ou o Chrome OS poderia migrar para os celulares? A empresa precisará matar um dos seus dois produtos integrando-os ou a separação é a melhor alternativa? Afirmar qualquer uma das opções, ao menos por enquanto, é dar um tiro no escuro.
.....
Você acredita que a nova arquitetura ARM de processadores será mesmo capaz de revolucionar o mundo dos eletrônicos? Participe deixando a sua opinião nos comentários.
0

Sua senha é segura?

A maioria das pessoas que possui qualquer familiaridade com o hacking sabe o quanto é fácil descobrir uma senha com poucos caracteres. É por este motivo que a escolha de uma senha precisa ser feita com cuidado. Precisa ser uma senha grande (portanto, forte), o que gera dificuldade para qualquer usuário.

Além disso, há tantas coisas que exigem senhas hoje em dia que fica até difícil de lembrar de todas elas. Consequentemente, algumas pessoas fazem escolhas ruins para suas senhas, de modo que seja fácil lembrar, mas igualmente fácil de ser hackeada. Além de senhas fracas, muitas vezes, são senhas iguais para locais diferentes.

Uma simples pesquisa na internet revela esse aspecto, quando estudadas as "aquisições" dos hackers: estes descobriram muitas senhas iguais, que funcionaram em vários sites. Por exemplo, as senhas "brasil", "futebol", "123456", entre outras. O login era o mesmo e a senha também para e-mails, contas de redes sociais e sites de jogos.

E estes são apenas alguns exemplos. Uma rápida pesquisa de 30 minutos na internet revela que centenas de usuários recorrem aos mesmos métodos na hora de escolher suas senhas.


O Experimento


Numa curiosidade para descobrir como as pessoas escolhem suas senhas, Sabina Datcu, PhD em Estatística e Informática, realizou o seguinte teste. Criou um questionário que a ajudou a encontrar respostas sobre as escolhas das senhas (se as pessoas acham que fizeram a melhor escolha possível, como elas escolheram, entre outras). O questionário foi realizado com 1000 pessoas escolhidas aleatoriamente, de 16 países, com uma média de 29.5 anos de idade e uma proporção sexual de 1:1.


O Questionário


O questionário foi construído de forma a abranger dois aspectos: quantas contas em diferentes sites as pessoas têm e se elas consideram essas senhas dessas contas "fortes e seguras".

Foram formuladas 15 perguntas e distribuídas em 3 seções:
  • Seção 1: O número de contas que as pessoas possuem.
  • Seção 2: Relacionadas às senhas (Elas contêm caracteres especiais? Quantos caracteres a sua senha possui?).
  • Seção 3: Informações demográficas (sexo, idade, nacionalidade).


O método usado para o questionário foi a entrevista e todas as questões foram discutidas individualmente, com cada participante.


Resultados


O primeiro passo era descobrir quantas contas os usuários possuem. A maioria (67%) disse que têm mais de 5 contas que pedem senhas. Resultados na figura 1:
http://on.oficinadanet.com/imagens/coluna/2809//senha1.jpg



Quando perguntados se eles usam as mesmas senhas para quase todas as suas contas, incríveis 73% dos entrevistados disseram que sim. Com base nesses dados, portanto, é possível concluir que alguém que descubra uma única senha tem a capacidade de entrar em quaisquer contas da respectiva pessoa.

Quanto à complexidade de suas senhas, 25% afirmaram que suas senhas têm o mínimo de caracteres pedidos - normalmente, são somente seis. Apenas 1% do total de entrevistados afirmou ter alguma senha com 15 caracteres ou mais.
http://on.oficinadanet.com/imagens/coluna/2809//senha2.jpg



No entanto, a complexidade de uma senha não é medida somente com base em seu tamanho, mas também em relação ao tipo de caracteres que ela contém. O experimento mostrou que mais de 60% dos entrevistados utilizam apenas letras maiúsculas ou minúsculas em suas senhas, enquanto 21% utilizam uma combinação dos dois. Apenas 5% utilizam senhas complexas, misturando letras maiúsculas e minúsculas, números e caracteres especiais.
http://on.oficinadanet.com/imagens/coluna/2809//senha3.jpg




Resultados Inesperados


Como de costume, os resultados inesperados formam a parte mais interessante de qualquer pesquisa. Para surpresa geral, apesar de a entrevista não ter sido longa, quando Datcu, a entrevistadora, perguntou a respeito da complexidade das senhas, mais de 12% das pessoas deram suas senhas a ela. Disseram: "Minha senha é xvc840m (caracteres escolhidos ao acaso). Você a achou forte o suficiente?".

Um conselho: use senhas diferentes em sites diferentes. Pense bem antes de criá-las: use caracteres especiais, números. E também misture com letras maiúsculas e minúsculas. Não entregue sua senha de bobeira para os hackers.

E, principalmente, lembre-se: guarde a sua senha somente para você.

Nota: Nenhuma informação privada ou outros conteúdos decorrentes da pesquisa foram recolhidos. Não existem dados ou informações confidenciais pertencentes a indivíduos ou empresas que serão aqui divulgados, de forma que eles não serão utilizados contra as pessoas que os revelaram.

terça-feira, 11 de janeiro de 2011

0

Mito ou verdade: cartuchos remanufaturados não prestam e estragam a impressora?

Entramos em contato com uma fabricante de impressoras para descobrir um pouco sobre essas dúvidas.


Em tempos antigos, a impressora era um item considerado caro, porém com a evolução constante da informática, os produtos de impressão ganharam ótimos descontos. Tanto impressoras como multifuncionais tiveram uma queda impressionante nos preços, todavia os suprimentos para tais equipamentos encareceram muito.
O aumento significativo no preço dos cartuchos foi uma das principais preocupações de muitos consumidores que usam impressoras diariamente. A grande jogada das fabricantes foi baratear o equipamento e encarecer o suprimento, fator que forçou muitas pessoas a procurarem meios alternativos para imprimirem seus documentos. Eis então que surgiu o grande salvador da pátria: o cartucho remanufaturado.
A moda pegou e surgiram dúvidas
Quando a folia do reabastecimento de cartuchos começou, muita gente não pensou duas vezes e adotou aos produtos alternativos. Como era o início de um novo negócio, alguns desconfiaram da qualidade, todavia os remanufaturados surpreenderam muita gente. Em um primeiro instante, grande parte dos consumidores comprou os cartuchos reabastecidos, pois o preço era muito interessante.
Até hoje eles são baratos, contudo existem pessoas que insistem no quesito qualidade. Além disso, alguns afirmam que os cartuchos remanufaturados podem até estragar a impressora. Afinal, será que a qualidade é muito inferior? Não compensa em momento algum comprar um cartucho reabastecido? Estraga mesmo?
Cartucho reabastecido
Para responder a essas, perguntas entramos em contato com Luis Esteter (Diretor de Vendas e Marketing para Suprimentos do Grupo de Imagem e Impressão da Hp Brasil) e até tentamos obter respostas de uma empresa de remanufaturados, mas não obtivemos sucesso.
A qualidade
Consumidores que possuem uma impressora para uso doméstico dificilmente sentem alguma diferença na qualidade das impressões. Todavia, para descobrir a verdade fizemos uma pergunta crucial para a HP:
”A qualidade dos cartuchos originais é muito superior? Os remanufaturados não são capazes de gerar bons resultados para documentos simples?”
Apesar de fugir um pouco ao tema, o diretor de vendas acabou respondendo o que queríamos:
"Existem estudos, realizados por laboratórios externos, que confirmam o cartucho original HP como sendo a melhor opção para os clientes. De acordo com o último estudo realizado pela BRTUV, os cartuchos originais HP rendem, em média, o dobro do que os cartuchos alternativos, além de praticamente não falharem, enquanto os não originais têm taxas de falha superiores a 30% (1 em cada 3 apresenta uma falha).
No caso dos cartuchos de toner, estudos recentes, realizados pela Quality Logic, indicam que a taxa de falhas dos produtos alternativos é de cerca de 40%, enquanto os originais praticamente não falham. Isso sem contar a qualidade de impressão e a confiabilidade. Por esse motivo, a HP se preocupa em oferecer a melhor qualidade possível, com o máximo de confiabilidade pelo melhor custo-benefício para seu cliente."
Entretanto, considerando o ponto de vista do consumidor que quer apenas imprimir documentos simples, não há do que se queixar quanto à qualidade. Somente uma pessoa com olhar clínico pode reclamar da qualidade do cartucho em documentos e imagens simples.
Possíveis defeitos
Cartucho original HP
Em teoria o cartucho reabastecido deveria se comportar como um original, até porque, em alguns casos, a embalagem utilizada é exatamente a mesma. Para não entrar muito nesse mérito, optamos por ouvir a opinião de um profissional:
“Cartuchos remanufaturados (reabastecidos) estragam a impressora?”
    Frisando o que citamos acima, ele respondeu:
    “Os cartuchos remanufaturados utilizam carcaças de cartuchos usados (vazios), que já tiveram seu desgaste natural para o qual foram projetados, e tintas ou toner não originais. Em função disso, esses produtos  apresentam  qualidade de impressão inferior aos cartuchos originais e altos níveis de falhas quando comparados aos cartuchos novos.
    Essas falhas podem ser de impressão, causando o desperdício do trabalho impresso (papel, tempo gasto, etc) ou falhas técnicas, como vazamentos de tinta ou toner. Esses vazamentos podem danificar a impressora, uma vez que o toner ou a tinta podem ser derramados sobre mecanismo de tração, circuito lógico  ou outras partes sensíveis da impressora, prejudicando seu funcionamento ou causando danos mais sérios.”
    Garantias
    Quem é preocupado com a vida útil de seu produto deve ficar ciente sobre alguns fatores quando usa um cartucho remanufaturado. Por isso, fizemos mais uma pergunta para a HP:
    “O consumidor perde a garantia se usar um cartucho desse tipo?”
      O fabricante responde a essa pergunta da seguinte forma:
      “A perda da garantia se dá apenas se houver um problema causado por mau uso ou por uma situação de falha do cartucho não original (um vazamento, por exemplo), devidamente comprovada, que danifique o equipamento dentro do período de garantia.“
      100 % de garantia em produtos originais
      Sendo assim, você pode perfeitamente utilizar os cartuchos remanufaturados, mas se der o azar de a impressora estragar justamente por culpa de um problema no cartucho, saiba que sua garantia tem grandes chances de ser anulada. Além disso, é importante lembrar que raramente uma empresa de remanufaturados vai lhe dar reembolso ou pagar o conserto de sua impressora.
      Relação custo-benefício
      O consumidor que tem de comprar tinta todo santo mês fica impressionado com a quantidade de dinheiro que gasta ao reabastecer sua impressora que usa cinco ou seis cartuchos. Aproveitando o tema, lançamos mais uma pergunta para a fabricante HP:
      “A decisão de criar impressoras que requisitam até seis cartuchos barateou ou encareceu os produtos para o consumidor?”
        A resposta obviamente está relacionada aos diferentes perfis de usuários:
        “Todo o desenvolvimento tecnológico da HP, no decorrer dos anos, visam oferecer a máxima qualidade, velocidade, rendimento pelo melhor custo-benefício possível. Os investimentos feitos pela HP possibilitaram o consumidor ter acesso a produtos de altíssima qualidade, com preços a partir de R$ 24,90 (cartuchos de tinta para uso diário – Everyday).
        O fato de uma impressora levar 2, 4 ou 6 cartuchos está relacionado à tecnologia do equipamento e ao tipo de utilização a que se destina e não a um aumento ou redução de custo do produto. Um exemplo disso são algumas das impressoras da linha OfficeJet Pro, que são indicadas para uso profissional e oferecem um dos menores custos por página disponíveis hoje.
        A OJ PRO 8500, que  utiliza 4 cartuchos separados (1 Preto e 3 Coloridos), chega a oferecer 50% de redução no custo por página, quando carregada com os cartuchos de alta capacidade da HP (linha XL), em comparação à algumas impressoras laser coloridas.”
        Exemplo de impressora com vários cartuchos
        Comprar ou não comprar? Eis a questão...
        Fizemos outras perguntas ao Diretor de Vendas da HP, todavia as respostas citadas neste texto são suficientes para que você decida logo o melhor cartucho para usar em sua impressora. A primeira das repostas importantes é: quem preza por garantia e qualidade acima de tudo deve com toda certeza optar pelo cartucho original.
        Quem quer economizar e usa a impressora para imprimir documentos comuns, os quais não necessitam de uma qualidade absurdamente alta, pode perfeitamente comprar um cartucho remanufaturado, pois os resultados não são decepcionantes. Entretanto, o utilizador de cartuchos remanufaturados deve sempre estar consciente de possíveis defeitos que anularão a garantia.
        E você, caro usuário? Utiliza cartuchos originais ou reabastecidos? Já teve algum problema com os suprimentos de sua impressora?
        0

        Mito ou verdade: aparelhos sem fio podem derrubar a internet wireless?

        Será que sua conexão Wi-Fi vai cair sempre que alguém atender o telefone sem fio?





        Será que o telefone sem fio interfere na conexão Wi-Fi?
        O mundo está cada vez mais digital. Esta afirmação pode ser confirmada com apenas um olhar à nossa volta para constatar a quantidade de aparelhos eletrônicos presentes. Como outra facilidade do mundo moderno, muitas vezes recorremos aos dispositivos que evitarão o emaranhado de cabos pela casa, como modems wireless, telefones sem fio, entre outros.
        O problema é que todos estes aparelhos podem acabar criando interferências e, dependendo do caso, atrapalhando o funcionamento correto de alguns deles. Quem mais sofre com esse tipo de ocorrência são os modems para conexão sem fio. Por isso que, dependendo dos dispositivos utilizados, sua internet Wi-Fi pode apresentar mau funcionamento ou até mesmo cair.

        Por que isso acontece?

        Aparelhos como modem, telefone sem fio, micro-ondas, secadores e outros de nosso uso diário funcionam por meio da liberação de sinais elétricos ou eletrônicos no ambiente. Tais sinais criam campos magnéticos à sua volta, a um determinado raio de alcance. Todos estes dispositivos possuem uma frequência específica para a operação.
        Sinais em frequências iguais geram interferência
        Se dois ou mais campos magnéticos de aparelhos da mesma frequência estiverem na mesma área, ocorre a interferência. Alguns dispositivos interferem mais do que outros, conforme a potência na qual eles funcionem.

        Os vilões da conexão

        Os aparelhos eletrônicos que transmitem sinais na mesma faixa de frequência das redes wireless (2.4 GHz), podem causar interferências no sinal do ponto de acesso se estiverem próximos ao local de emissão ou recepção do modem. Dessa forma, acabam prejudicando a recepção de conexão por parte dos dispositivos conectados à rede.
        Um dos dispositivos que pode causar interferência é o telefone sem fio, embora a maioria deles trabalhe na faixa dos 900 MHz, que não costuma interferir no modem. Em alguns casos, há aparelhos que utilizam a tecnologia FHSS. Nesta situação a frequência varia, mudando de canal em intervalos de tempo.
        Telefones operando na mesma frequência podem interferir na conexãoDessa forma, a informação é transmitida em um espectro amplo. Com isso, ele tenta prevenir que as interferências ocorram, mas pode vir a interferir em momentos em que as frequências coincidirem. Os telefones sem fio que costumam causar problemas crônicos de interferência são os que operam na faixa de 2.4 GHz que, mesmo com potência menor para os telefones, é a mesma dos modems wireless.
        Um dos maiores vilões para o sinal das redes Wi-Fi é o forno de micro-ondas, por se tratar de um transmissor de rádio operando em 2.4 GHz e a uma potência muito alta. Para não ser prejudicial para as pessoas, ele possui uma grade de metal e proteções especialmente criadas para evitar que o sinal escape.
        Ainda assim, a pequena quantidade emitida (a qual não é prejudicial à saúde quando o forno está regulado) é o bastante para interferir em uma rede wireless. Além dos dois aparelhos citados, qualquer outro que opere a 2.4 GHz pode causar interferência, mesmo que em menor grau, como os transmissores de Bluetooth, outras redes wireless na mesma área, etc.

        O que fazer?

        Isso é um problema sério, porque nem sempre há uma ampla gama de alternativas. Cada um dos dispositivos sem fio deveria possuir uma frequência diferente, mas devido a quantidade produzida e lançada diariamente, fica difícil garantir a inspeção de cada um deles, sem contar aparelhos importados cuja faixa de operação poderia ser ideal para o local do qual vieram.
        A melhor alternativa seria trocar os aparelhos por dispositivos que operem com frequência diferente do modem, no caso dos telefones sem fio ou outros dispositivos, que ficam próximos ao computador ou ponto do sinal wireless. Ou afastá-los, para que não apresentem interferência sempre que forem utilizados em conjunto.
        Casos como o do micro-ondas, por estar em ambiente diferente, dificilmente acaba incomodando o sinal, mas vale a dica de mudar de lugar caso o aparelho venha a se tornar um problema para a conexão. Aparelhos com grau de interferência menor (ou quase inexistente) como o Bluetooth, podem ser afastados se virarem um incômodo real.


        /* ------ Botão “Voltar Ao Topo do Blog” Com CSS3 E Jquery ------ */ ▲ Voltar ao Topo