terça-feira, 14 de agosto de 2007

Google acrescenta quatro cidades ao StreetView


Mais quatro cidades americanas ganharam a funcionalidade de StreetView, ferramenta da Google que acrescenta fotos navegáveis em alta resolução de cada uma das ruas das cidades abordadas aos já existentes mapas e fotos de satélite.

Segundo o site Webware San Diego, Los Angeles, Houston e Orlando se somaram às cinco cidades estreantes em maio passado: San Francisco, Nova York, Las Vegas, Denver e Miami.

Como as imagens tiradas em San Francisco, as imagens de San Diego estão em melhor resolução, o que é atribuído ao fato de que as fotos nestes locais estão sendo feitas pela própria Google, enquanto as outras foram feitas por uma empresa contratada.

Até o momento são nove cidades cobertas pela tecnologia da Google, que tem como objetivo se expandir para o maior número de localizações possível.

A Microsoft também trabalha em serviços concorrentes ao StreetView, como é o caso do Street Side e Virtual Earth 3D, porém estes não são tão elegantes e fáceis de utilizar, conforme informou o TechCrunch.

Novo endereçamento IP será implementado

Um documento publicado esta semana pelos órgãos que administram a internet propõe a adoção do IP versão 6 (IPv6) até o ano 2011. A versão atual do protocolo IP, a de número 4, possui diversos problemas de segurança e já está com a capacidade de endereçamento virtualmente esgotada.

Segundo os sites The Inquirer, Government Computer News e Slashdot, a IETF - Interner Engineering Task Force, órgão que decide os destinos tecnológicos da grande rede, publicou um internet draft propondo um plano de migração do atual IPv4 para IPv6.

Se o draft, que é apenas um rascunho, for aprovado e se tornar um documento oficial, a migração deverá ocorrer em três etapas. A primeira, que começa imediatamente e termina no fim de 2008, seria um estágio preparatório no qual as empresas migrariam apenas computadores não essenciais. Na segunda etapa, que ocorreria em 2009 e 2010, seria obrigatório migrar os serviços essenciais ligados diretamente à internet. Em primeiro de janeiro de 2011, todos os computadores - internos e externos - precisariam obrigatoriamente já estar funcionando em IPv6. O IPv4 estaria, portanto, descontinuado até 2011.

O protocolo IP é o padrão de endereçamento que permite a comunicação entre computadores pela internet e nas redes dentro das empresas. Sua versão atual já é bastante antiga e possui problemas insolúveis. Além das questões de segurança, que periodicamente são descobertas, o IPv4 já esgotou sua capacidade de expansão. Cada computador ligado à internet - seja um computador pessoal, seja um servidor que hospeda um site - precisa de um endereço único que o identifique na rede. Esse número é chamado endereço IP ou número IP (IP = internet protocol). Quase não existem mais endereços IP para distribuir a novos internautas, o que quer dizer que a internet estaria fadada a não crescer caso não se tomasse uma providência. O advento do IPv6 resolveria todos esses problemas.

klevhzthon Storm Metal Music

O Mundo em suas mãos...

Megaupload lança concorrente de YouTube

Os criadores do site de hospedagem de arquivos Megaupload lançaram um serviço de vídeo que tem como objetivo concorrer diretamente com o YouTube.

Baseado em Hong Kong, o Megavideo traz anexado ao seu logo as palavras "beats YouTube", que na tradução quer dizer "supera o YouTube". Os motivos da suposta superação são listados em forma de texto e vídeo.

O principal deles seria o fato de que o usuário pode ganhar dinheiro através de um sistema de premiação ou ainda com publicidade inserida em seus trabalhos, todavia estes recursos são reservados a usuários com uma inscrição paga.

Os criadores ainda listam como vantagem o fato de que é possível reproduzir qualquer trecho do vídeo, a qualquer momento, sem contar com o chamado pré-buffering, além de suporte do site a mais de 20 idiomas, entre eles o português.

Diferente do YouTube, onde existe uma limitação quanto à duração máxima do vídeo, o Megavideo não impõe qualquer restrição, e a velocidade de conversão também é maior: em no máximo 30 minutos o vídeo enviado deve estar no ar.

Existe ainda a opção de envio de arquivos em lote e a possibilidade de baixar o vídeo enviado em sua forma original. Para fechar os 10 motivos pelos quais o novo portal seria melhor que o YouTube, os criadores acrescentaram que o Megavideo ama seus usuários mais do que a concorrência.

O site TechCrunch diz ainda que o site é notável pela falta de anúncios em banners. O objetivo do Megavideo seria gerar renda com contas Premium, em que os usuários pagam cerca de US$ 10 por mês e podem enviar vídeos de até 5 GB com prioridade de publicação, além de ter acesso ao download dos vídeos em forma original e à renda pelos anúncios ou programa de premiação.

Estar em português certamente é um atrativo para os usuários brasileiros, entretanto surgem preocupações, já que o Megaupload traz limitações sérias aos usuários do Brasil, que só podem baixar uma quantidade limitada de arquivos, o que poderia arruinar a experiência caso acontecesse de forma semelhante no portal de vídeo.

A promoção exagerada também é um ponto a ser abordado, já que a popularidade do YouTube não se baseia apenas em suas funcionalidades, mas também na imensa base de vídeos já existente no serviço e, agora, nas parcerias com fornecedoras de conteúdos.

Os interessados em conhecer o Megavideo podem acessá-lo em megavideo.com.

Sun pretende lançar processador com oito núcleos

A Sun Microsystems deve anunciar em alguns dias seu mais novo processador, o Niagara 2. O processador possui oito núcleos capazes de processar oito processos cada, num total de 64 tarefas simultâneas.

Segundo o site da Information Week o novo processador será a pedra fundamental de sua nova linha de produtos de alto desempenho, batizada de "Throughput Computing". Além de ter o dobro de núcleos que os processadores mais avançados da Intel e da AMD, o processador possui duas conexões de rede de alta velocidade (10 Gbit/s) embutidas, com recursos de criptografia.

Como os processadores da Sun não são usados em PCs ou Macs, mas apenas nos servidores CoolThreads da própria Sun, não são muito conhecidos. Entretanto, quando forem lançados serão, durante muito tempo, os processadores mais rápidos da face da Terra, ultrapassando os também pouco conhecidos do grande público Power 6, da IBM, que funcionam a 4 GHz.

De acordo com o site CNet News.com, o Niagara 2 possui a mesma quantidade de núcleos que seu antecessor, o Niagara. Entretanto, o antecessor podia processar apenas quatro tarefas por núcleo, num total de 32. Informações mais completas sobre o novo processador podem ser obtidas no site oficial da Sun.

Chegou o tradutor portátil para idiomas orientais


Modelo TGA-470 trabalha com os idiomas chinês, coreano e japonês

Dois tradutores portáteis da Franklin chegam ao mercado brasileiro, um deles com idiomas orientais. Os equipamentos cabem facilmente em qualquer bolso e traduzem 12 idiomas, oferecendo 12 mil frases prontas e 400 mil palavras. Os dois modelos têm ainda calculadora, cinco modalidades de jogos e conversor de moedas e medidas.
O TGA-470, na cor prata, tem tela maior e o diferencial de traduzir chinês, japonês e coreano. Na cor prata, ele tem preço sugerido de R$ 498. Já o modelo TGA-450 vem na cor chumbo, é básico e funcional, e tem preço sugerido de R$ 186. Mais informações podem ser obtidas pelo telefone 0800 70 22746.

Vem aí os Novos monitores e o seu nome é OLED



Há pouco tempo saiu no Webinsider um artigo sobre monitores CRT, plasma e LCD, mostrando seus dados técnicos, vantagens e desvantagens de cada tecnologia.

É fato que a tecnologia CRT está ultrapassada e os produtos com telas de plasma são economicamente inviáveis devido ao seu alto custo de produção além das deficiências da tecnologia, como alto consumo de energia e o efeito burn-in, colocando o LCD como vencedor daquela batalha.

Mas os monitores LCD já estão com os dias contados. A Sony anunciou no começo deste ano, uma nova linha de monitores e TVs com a nova tecnologia chamada OLED (Organic Ligh-Emitting Diode) ou diodo orgânico emissor de luz. Esta tecnologia permite que as próximas telas sejam mais finas, leves e baratas que as atuais de LCD.

Cada diodo orgânico é composto por moléculas de carbono que emitem luz ao receberem uma determinada carga elétrica, podendo ser aplicado diretamente sobre a superfície da tela, usando o método de impressão. Como cada diodo orgânico possui luz própria a necessidade de se utilizar luz auxiliar(backlight) é descartada, fazendo com que os aparelhos desenvolvidos com esta tecnologia fiquem menores e gastando menos energia.
Esta tecnologia torna-se muito interessante para uso em PDAs, notebooks e qualquer outro dispositivo portátil, onde o tamanho e a economia de energia são fatores críticos.


As telas orgânicas também conseguem ter tempo de resposta inferior às telas de LCD, diversos ângulos de visualização e maior contraste. Unindo essas características a uma forma mais simplificada de produção e utilizando menos materiais do que seu concorrente, barateando seu processo de manufatura, as próximas telas de OLED deverão fazer com que os aparelhos que utilizem LCD logo fiquem obsoletos.
Vantagens do OLED:
Maior brilho e contraste (1000 x superior ao LCD);
Maior ângulo de visualização (180º);
Menor tempo de resposta: aprox. 0,1 ms;
Menor consumo de energia;
Maior durabilidade;
Por enquanto vamos esperar. Por que é a nova era chegando.

Steve Jobs apresenta o novo iMac com disco de 1 Terabyte


Novo iMac feito de vidro e alumínio conta com HD de 1 Terabyte, memória expansível a 4 GB e processador Intel Core 2 Duo.
Steve Jobs, o Chief Executive Officer (CEO) da Apple, apresentou nesta terça-feira (07/08) o novo iMac durante um evento para jornalistas e convidados VIP no “quartel-general” da empresa, em Cupertino, nos Estados Unidos.

“Acreditamos que é uma ‘maravilha multifuncional’”, disse Jobs. Essa tendência é bem clara nos iPods, iPhones e outros dispositivos, junto com o dramático crescimento da demanda por notebooks, que segundo Jobs está controlando todo o mercado de PCs.

celular world: Prazo de validade de cartão pré-pago pode acabar

Para parlamentar mineiro, o serviço pré-pago é o mais usado no País e, por isso, precisa de maior proteção legal.
O Projeto de Lei 618/07, apresentado à Câmara pelo deputado Lincoln Portela (PR-MG), proíbe as empresas de telefonia de impor um prazo de validade para os cartões de celulares pré-pagos. A proposta também determina que o aparelho pré-pago só será bloqueado para recebimento de chamadas um ano após o término do último crédito.

Na opinião do deputado, as concessionárias afrontam o Código de Defesa do Consumidor (Lei 8078/90) quando estabelecem um prazo de validade para os créditos pagos antecipadamente. Ele destacou que o serviço pré-pago é o mais usado no País e, por isso, precisa de maior proteção legal.

Segundo a Agência Nacional de Telecomunicações (Anatel), em maio de 2007, o Brasil contava com 105 milhões de assinantes de telefonia celular. Destes 80,36% eram optantes do pré-pago (84,4 milhões de clientes).

O projeto tramita em caráter conclusivo e será examinado pelas comissões de Defesa do Consumidor; de Ciência e Tecnologia, Comunicação e Informática; e de Constituição e Justiça e de Cidadania.

CELULAR WORLD : Portabilidade numérica será realidade no Brasil até março de 2009

Cliente vai poder mudar de operadora e manter o número da linha. Mudanças de endereço dentro da mesma operadora também não exigirão mais alteração do número.
O conselho da Agência Nacional de Telecomunicações (Anatel) aprovou hoje o regulamento que implanta a portabilidade numérica no Brasil. Dessa forma, o usuário poderá mudar de operadora, mas manter o atual número da linha, tanto na telefonia fixa como na móvel.

Os conselheiros, entretanto, concordaram em estender o prazo para que o serviço passe a ser oferecido. Enquanto o regulamento anterior previa 18 meses para a transição, a reunião de hoje decidiu levar em conta o pleito das operadoras e estender o prazo para 24 meses.

O próximo passo será a publicação do regulamento no Diário Oficial, o que deve acontecer até a próxima segunda-feira. Após a publicação, começa a contar o prazo de 24 meses.

Antes desse prazo, entretanto, já começa a valer um outro benefício aos consumidores, como explicou a assessoria de imprensa da Anatel. Assim que a medida for publicada no Diário Oficial, o cliente que mudar de endereço, dentro da mesma localidade e na mesma operadora, não terá mais mudança no seu número telefônico.

Essa é a chamada portabilidade de endereço, enquanto a mudança de operadora envolve a portabilidade numérica. Esta vale para as migrações de uma operadora para outra dentro da mesma localidade e no mesmo serviço - entre empresas de telefonia fixa ou entre empresas de celular, e nunca de uma para outra.

A Anatel vai definir o valor máximo que o cliente pagará pelo benefício da portabilidade numérica mais para a frente, mas os conselheiros acreditam que fique por volta de 20 reais, pagos de uma só vez pelo cliente que solicitar a mudança.

Uma entidade administradora vai concentrar esses recursos e gerenciar a bilhetagem entre os usuários que mudarem de empresa para evitar cobranças em duplicidade.

Suíte StarOffice vai fazer parte do Google Pack

Software da Sun, avaliado em US$ 70, será distribuído de graça dentro do Google Pack.
O Google integrou ao Google Pack, seu pacote de softwares para download, o pacote corporativo StarOffice 8, da Sun Microsystems, entre suas opções.

O StarOffice, vendido normalmente pela Sun por 70 dólares, é gratuito dentro do Google Pack.

O pacote é a resposta da Sun ao Office, da Microsoft. Em 2000, a Sun divulgou o código fonte do StarOffice, que foi usado como base para o OpenOffice.org, projeto de código livre apoiado pela Sun.

O StarOffice 8 permite que usuários criem documentos, planilhas e apresentações e suporta a maior parte dos documentos do Office, a não ser pelos novos padrões do Office 2007. O software ainda pode exportar documentos em PDF.

A versão dentro do Google Pack do StarOffice integra uma barra de buscas do Google em todos seus aplicativos.
O Google afirmou que recomenda o uso de conexão banda larga para uma instalação mais rápida já que o arquivo tem até 210 MB, dependendo da língua escolhida.

"Será interessante ver porquê o Google não incluiu o OpenOffice, dada que a principal diferença entre ambos é a presença de componentes proprietários no StarOffice, como gráficos, templates e ferramentas para a migração para o Office, da Microsoft", afirma o Googlesystem, blog que cobre notícias sobre o Google.

Cerca virtual protege fronteira nos EUA


Aparato inclui nove torres de 30 metros equipadas com radar e câmeras. A cerca virtual é a espinha dorsal da Iniciativa de Segurança na Fronteira.

Se a tentativa de prender pessoas cruzando ilegalmente a fronteira ao sul do deserto do Arizona é uma briga de gato e rato, o Departamento de Segurança Interna do governo norte-americano afirma que o gato está mais esperto do que nunca.

O novo aparato inclui nove torres com cerca de 30 metros de altura equipadas com radar, câmeras de alta definição e outros equipamentos plantados em meio aos campos de arbustos e lava que circundam essa minúscula cidade.

Conhecido como Projeto 28, em referência às 28 milhas (ou 45 quilômetros) de fronteira alcançadas pelos radares das torres, a chamada cerca virtual constitui-se na espinha dorsal da Iniciativa de Segurança na Fronteira, conhecida como SBInet, um mix multibilionário de tecnologia, mão-de-obra e monitoramento, cujo intuito é controlar a passagem ilegal pela fronteira.

Se o resultado do projeto for positivo, centenas de torres como essas poderiam ser implementadas nos 9.600 quilômetros de fronteiras com o México e o Canadá.

Clique aqui para ver onde vivem os imigrantes brasileiros nos EUA

Controle tecnológico

As câmeras, ativadas por radar, devem transmitir imagens de alta qualidade de alvos a quilômetros de distância para comandantes e agentes em campo, tornando possível detectar quase instantaneamente se eles estão vendo uma família em passeio ou um grupo de imigrantes ilegais.

A informação passaria por uma rede sem fio de alta velocidade para os laptops de dezenas de veículos de Patrulha da Fronteira que, em tese, reagiriam com mais rapidez e eficiência às transgressões do que o fazem agora.

"Estamos na linha divisória entre a velha Patrulha da Fronteira e a nova patrulha do futuro", declarou David Aguilar, chefe da Patrulha da Fronteira.

"O novo aparato não só detectará, mas identificará o tipo de invasão", acrescentou Aguilar, um avanço em relação aos sensores de solo, câmeras em cercas e pegadas, recursos utilizados até então e que podem induzir a "erros".

Adiamento

No entanto falhas nos radares e nas câmeras forçaram o projeto a adiar a sua inauguração que estava prevista para 13 de junho, exatamente quando o Congresso se volta mais uma vez para o tema da segurança nas fronteiras em uma medida do Senado que visa à reforma das leis de imigração.

Representantes do Departamento de Segurança Interna insistem que a Boeing, que fechou um contrato de US$ 67 milhões para desenvolver este projeto, entre outras empresas, em breve providenciará o funcionamento do projeto, embora não forneça uma nova data de conclusão.

A Boeing consultou o departamento para comentários sobre o assunto.

"Estamos progredindo muito bem", declarou o diretor executivo do programa de fronteiras, Gregory Giddens.

Os democratas no Congresso estão questionando por que os problemas não foram divulgados em uma reunião sobre o projeto em 7 de junho. Somente depois, em comunicado aos congressistas, os atrasos vieram à tona.

"A falha do departamento em se posicionar e as repetidas vezes em que os prazos do projeto foram descumpridos não só prejudicam a capacidade do Congresso de monitorar o programa SBInet de maneira apropriada, mas também destrói a credibilidade do departamento com relação a essa iniciativa", escreveram os representantes Bennie G. Thompson do Mississippi, diretor do Comitê de Segurança Interna, e Loretta Sanchez da Califórnia, diretora de um subcomitê de fronteiras, ambos democratas, em uma carta em 19 de junho para o departamento.

Em um relatório em fevereiro, o Departamento de Responsabilidade Governamental alertou que o Congresso precisava manter um controle firme do programa, porque, segundo o documento, "o SBInet corre o risco de não cumprir os recursos e benefícios prometidos dentro do prazo e do orçamento".

Alguns oficiais estimam que o custo total do projeto até 2011 seria de US$ 7,6 bilhões. O departamento de responsabilidade sugeriu que esse número está subestimado.

A Boeing conseguiu o contrato, que inclui US$ 20 milhões para o Projeto 28, em setembro e o assumiu em caráter de urgência, afirmou Giddens, acrescentando que prefere atrasar a iniciar o projeto com equipamentos com falhas.

Em vez de desenvolver uma nova tecnologia, a Boeing empregou câmeras, sensores, radares e outros equipamentos que já estavam no mercado e os reuniu em um sistema que, embora não apresente inovação tecnológica, difere de tudo que a Patrulha da Fronteira utiliza atualmente.

Câmeras para vigilância ganham inteligência



Sistemas podem “entender” imagens que registram.
“Se as câmeras são os olhos, sistemas representam o cérebro”, compara especialista.

Pesquisadores e fabricantes uniram seus esforços para dar inteligência às câmeras de vigilância, equipamentos cada vez mais presentes no cotidiano das pessoas. Em vez de restringir sua função ao monitoramento, esses aparelhos devem começar também a interpretar o que vêem -- com isso, eles poderão identificar bolsas sem donos em aeroportos, adivinhar o peso das pessoas ou disparar um alerta caso o andar da pessoa filmada denuncie que ela esconde algo.

Esse tipo de inovação fará com que menos pessoas tenham de assistir às imagens capturadas, já que o próprio equipamento poderá identificar algo estranho. “As autoridades perceberam que podem usar câmeras para estarem em diversos lugares ao mesmo tempo”, afirmou Roy Bordes, dono de uma consultoria de segurança em Orlando (Flórida, EUA).

Sistemas que usam inteligência já foram colocados em prática nos Estados Unidos. Em Chicago, por exemplo, câmeras espalhadas pelas ruas podem detectar disparos de armas e avisar à polícia. Já em Baltimore, esses aparelhos tiram fotos de pichadores de muros, além de disparar um arquivo de áudio para essas pessoas. Também há cassinos cujas câmeras identificam golpistas que já estiveram no local antes.

Sistemas de vigilância inteligente utilizam algoritmos de computador para identificar as imagens gravadas pelas câmeras. Essa tecnologia pode ser programada para buscar itens em particular, como uma bolsa sem alguém por perto ou pessoas que transitam por lugares onde não deveriam.

“Se você pensa em uma câmera como seu olho, esses softwares são considerados seu cérebro”, comparou Patty Gillespie, diretora de processamento de imagens do Laboratório de Pesquisas do Exército, nos Estados Unidos.

O professor de engenharia Rama Chellappa, da Universidade de Maryland, trabalha no desenvolvimento de um sistema que pode identificar, pela maneira como as pessoas caminham, se elas são consideradas ameaças. Alguém que carrega uma arma sob seu casaco, por exemplo, anda de uma maneira diferente.

O transporte metroviário de Barcelona, na Espanha, também conta com câmeras inteligentes para prevenir acidentes. Quando uma pessoa entra em uma área onde não deveria, o equipamento envia um alerta para os seguranças que podem ir até o local. Edward Troha, executivo da empresa ObjectVideo, que fornece essa tecnologia, afirma que o sistema pode ser usado para a segurança de casas e escritórios.

Cientistas colocam 500GB num DVD


Investigadores conseguiram “espremer” 500GB de dados num comum DVD.

O projecto Microholas, feito em conjunto com o instituto de tecnologias ópticas da Universidade de Berlim, ambiciona duplicar esse valor para um terabyte até 2010.

Esta elevada capacidade de armazenamento é atingida recorrendo a uma tecnologia denominada por gravação microholográfica. Esta adiciona uma terceira dimensão ao disco físico, criando redes holográficas que podem ser usadas para ler e gravar dados.

IBM Anuncia Nova Geração de Chips

A IBM anuncia hoje uma melhoria significativa na tecnologia de transístores: o interruptor on/off de dimensões reduzidas que funciona como uma barreira de bloqueio básica para todos os microchips actualmente construídos. Uma inovação há muito procurada.

Em conjunto com a AMD e com os outros parceiros da área de desenvolvimento, nomeadamente a Sony e a Toshiba, a IBM desenvolveu um processo para construir uma parte essencial do transístor com base num novo material, abrindo caminho a um sistema eléctrico de chips mais reduzido, mais rápido e mais eficaz em termos de aproveitamento energético, do que previamente se acreditava ser possível. Esta tecnologia pode ser incorporada nas linhas actuais de fabrico de chips com mudanças mínimas ao nível de ferramentas e de processos, tornando-a assim economicamente viável.

Prevê-se que este progresso surta um forte impacto e que conduza a melhorias nos diversos sistemas electrónicos, desde computadores a outros produtos deste âmbito direccionados para os consumidores. A IBM introduziu esta tecnologia na sua linha inovadora de fabrico de semi-condutores, localizada em East Fishkill, Nova Iorque, estando prevista a sua aplicação em produtos a partir de 2008.

“Até ao momento, o mercado de chips deparava-se com uma enorme barreira referente aos limites alcançáveis pela margem de progresso da tecnologia actual” afirma o Dr. T.C. Chen, vice-presidente da Divisão de Ciência e Tecnologia, da IBM Research. “Após dez anos de esforços e dedicação sabemos actualmente qual o caminho a percorrer. Com a tecnologia de chips tão presente no nosso dia-a-dia, este trabalho aporta benefícios a muitos níveis”.

A tecnologia, designada de high-k metal gate, substitui uma componente crítica do transístor – que controla a sua função primária de regulação on/off – por um novo material que garante propriedades eléctricas superiores às do seu antecessor. Isto significa uma optimização da função do transístor e torna possível a redução da sua dimensão para além dos limites actuais.

A utilização deste material permite assim que as empresas continuem na direcção definida pela Lei de Moore, o axioma da indústria dos chips que prevê uma duplicação do número de transístores existentes num chip, a cada 12 a 18 meses, conduzindo também à maximização da funcionalidade e desempenho da tecnologia. O sector dos semi-condutores tem registado esta taxa de desenvolvimento durante décadas, mas estava próximo de alcançar os limites da tecnologia mais recente, ameaçando um abrandamento dos avanços na área.

Tão importante quanto o próprio material é a sua metodologia de introdução nas técnicas de fabrico actuais. A criação deste componente do transístor, com base no novo material, foi desenvolvida pela equipa da IBM sem a necessidade de mudanças profundas em matéria de ferramentas e processos de fabrico, um factor essencial para a concepção de uma tecnologia economicamente viável.

Parte do trabalho suplementar que conduziu a este progresso fora já divulgado pela IBM em jornais científicos e apresentado em conferências relacionadas com a tecnologia de chips. A IBM prevê publicar o resumo desta inovação final num evento similar a acontecer num futuro próximo.

Para mais informações sobre IBM Research, por favor consulte: http://www.research.ibm.com

NASA Utiliza Software IBM Open-Standard Para Desenvolver Telescópio Espacial de Próxima-Geração


A IBM (NYSE: IBM) anunciou hoje que a National Aeronautics and Space Administration (NASA) está a utilizar software IBM para desenvolver os sistemas que vão operacionalizar o Telescópio Espacial James Webb (TEJW), sucessor do Telescópio Espacial Hubble (TEH). Este novo telescópio de próxima-geração vai observar mais de perto o início dos tempos e procurar a desconhecida formação das primeiras galáxias.

O telescópio, cujo lançamento está previsto para 2013, irá estudar a formação de galáxias, estrelas e planetas. Para tal, a NASA irá recuar no tempo e mergulhar no espaço, utilizando anos-luz para viajar do presente para o passado. Por exemplo, para estudar a formação inicial das estrelas no universo, a NASA irá observar luz infravermelha através de instrumentos especiais optimizados, de forma a conseguir capturar esta parte do espectro.

Há 20 anos, os componentes e instrumentos do telescópio Hubble foram criados por múltiplas organizações que recorreram a software registado para desenvolvimento dos sistemas. Esta abordagem levou a que a manutenção, as mudanças e os arranjos executados no telescópio exigissem múltiplas ferramentas, que foram sendo geradas ao longo de toda a missão.

Dado que o software operacional dos sistemas de navegação e controlo (Guidance, Navigation and Control - GNC), de comando e de tratamento de dados (Command and Data Handling - CNDH) e o Módulo Instrumental de Ciência Integrada (Integrated Science Instrument Module - ISIM), que agrega os principais quatro instrumentos do TEJW, provinha de diferentes instituições de diferentes países, , tornou-se imprescindível criar uma linha condutora comum durante o projecto a fim de evitar o excessivo consumo de recursos e de tempo afectos às questões de software.

Para superar esta complexidade, a NASA determinou que cada organismo deverá desenvolver os seus sistemas utilizando o IBM Rational Rose Real-time, software open-standard de desenvolvimento de modelizações visuais baseado em UML, que possibilita aos responsáveis pelos vários sistemas do telescópio disporem de um plano detalhado de todo o projecto e, sem restrições temporais, recuperar e actualizar o código do software directamente nesse mesmo plano, ficando automaticamente disponível ao longo de todo o projecto.

O Rational Rose Real-time ajuda os programadores dos vários sistemas a criarem as aplicações mais rapidamente e sem comprometerem a sua qualidade. Este software da IBM verifica continuadamente a qualidade do projecto ao longo de cada passo do processo de desenvolvimento – incluindo a concepção do código, a realização dos testes, a localização e depuração de falhas, e as mudanças persistentes – para que a evolução do sistema continue em curso e sem erros. Isto possibilita às várias instituições associadas à construção do telescópio espacial James Webb uma maior produtividade e capacidade de distribuição de códigos seguros atempadamente – indo ao encontro dos requisitos do projecto e das regulamentações da indústria.

Alguns dos organismos que trabalham para o telescópio estão também a utilizar o IBM Require Pro, o IBM Rational ClearCase e o IBM Rational ClearQuest, que lhes permite sincronizar mudanças de projecto no interior das equipas globalmente dispersas, resultando numa mais rápida inovação.

“Tornou-se importante para a NASA utilizar uma plataforma de desenvolvimento de sistemas que fosse segura e de vanguarda no mercado, durante o longo período de missão”, disse Glenn Cammarata, ISIM Flight Software Development Lead, da Satellite Software Corporation, colaborador da NASA. “Uma vez que é baseada em open-standards, a natureza consistente e unificada da arquitectura do software da IBM possibilita a redução de quaisquer problemas que possam acontecer durante a jornada. O software Rational Rose Real-Time, muito mais fácil de gerir antes e depois do lançamento, foi a escolha acertada dadas as características específicas do Telescópio Espacial James Webb”.

A NASA vai continuar a utilizar o software IBM Rational para fazer a manutenção do telescópio após o seu lançamento e durante a missão. Além disso, a abordagem baseada em UML permite à agência espacial criar uma arquitectura padronizada, cuja natureza reutilizável permitirá a sua aplicação em futuras missões suplementares.

“O desenvolvimento integrado de sistemas, quer seja para um tesouro nacional como o telescópio espacial James Webb, para a concepção de uma aeronave ou de um automóvel, é um processo extremamente complexo de análise, desenho, implementação e manutenção”, na opinião de Daniel Sabbah, o general manager do software IBM Rational. “O software da IBM remove o caos do projecto ao criar maior controlo no processo de desenvolvimento de sistemas, permitindo a organizações como a NASA cumprir os projectos atempadamente e estar em conformidade das regulamentações, ao mesmo tempo que se protege contra problemas imprevistos e dispendiosos relativamente a software”.

Para mais informação, por favor visite:www.ibm.com/software/rational

IBM Lança Chip Mais Rápido do Mundo em Novo e Potente Computador



A IBM (NYSE:IBM) anuncia, em simultâneo, o chip mais rápido alguma vez construído e um novo servidor ultra-potente que impulsiona os muitos avanços do chip no que se refere à conservação de energia e à tecnologia da virtualização. O novo servidor é o primeiro de sempre a deter os três principais registos de velocidade nos testes de referência para o negócio e o desempenho técnico (1).

Com velocidades que variam entre 3,5 GHz e 4,7 GHz e um consumo idêntico ao do seu predecessor, o POWER6 é quase três vezes mais rápido que o último processador HP Itanium, a funcionar na gama de servidores HP.

O novo chip constitui o núcleo central do novo servidor IBM de 1 a 16 núcleos, que oferece três vezes o desempenho por núcleo do HP Superdome baseado no teste de referência TPC-C (2). No entanto, o servidor anunciado fornece mais do que apenas desempenho em bruto: assume-se como a máquina de consolidação mais poderosa do mundo, contendo hardware e software especiais que lhe permitem criar muitos servidores “virtuais” numa única caixa.

Por exemplo, a IBM calcula que 30 SunFire v890s possam ser integrados num único bastidor desta nova máquina, economizando mais de 100.000 dólares por ano em custos de energia. A IBM ganhou 10,4 pontos da quota de mercado UNIX nos últimos cinco anos – contra uma perda de 5,3 e de 1,4 pontos, da HP e da Sun, respectivamente – e irá utilizar a nova máquina para conquistar clientes que utilizem servidores menos eficientes da HP, da Sun e da Dell.

O POWER6 já atingiu velocidades de 6 GHz em laboratório, o que preconiza fortes avanços ao nível do desempenho e, para além disso, a Companhia divulgou que planeia introduzir um servidor blade baseado na nova tecnologia POWER até ao final do ano.

Teste de referência Trifecta

Demonstrando a sua notável flexibilidade, o novo System p570 da IBM, correndo POWER6, posiciona-se em primeiro lugar nos três testes de referência mais utilizados para servidores baseados em Unix: o Specint (que mede a capacidade de cálculo com números inteiros, comum a aplicações de negócio), o Specfp (que mede a capacidade de cálculo com vírgula flutuante, requerida em aplicações científicas) e o TPC-C (que mede a capacidade de processamento de transacções) (1).

Esta é a primeira vez que um único sistema ganha simultaneamente as três categorias. O System p570 detém actualmente mais de vinte registos de benchmark através de um extenso portfólio de aplicações de negócio e técnicas (3).

A liderança no desempenho deve-se essencialmente à concepção equilibrada do sistema. Ao contrário dos servidores concorrentes, a IBM foi bem sucedida ao escalar de forma equilibrada o desempenho do processador e os tamanhos de cache e largura de banda. Por exemplo, com a actual largura de banda de comunicação entre processador e memória – 300 gigabytes por segundo – poderia efectuar o download de todo o catálogo iTunes em aproximadamente 30 segundos. O POWER6 tem um tamanho de cache total de 8 megabytes por core – duplicando a capacidade do POWER5 – para manter a velocidade com a excepcional largura de banda. Este crescimento equilibrado contrasta com o de muitos outros servidores concentrados sobretudo no desempenho do processador, em detrimento da capacidade deste para alimentar o chip com dados numa proporção adequada à sua velocidade (do processador).

POWER6: Uma Tecnologia Inovadora

O chip POWER6 a funcionar no novo servidor System p570 da IBM representa um conjunto de inovações para a indústria. É o primeiro microprocessador UNIX capaz de fazer cálculos em vírgula flutuante assimétrica e, até ao momento, os cálculos envolvendo números com pontos decimais (vírgula flutuante) foram executados utilizando o software. A SAP AG planeia explorar este progresso técnico com novas aplicações.

O POWER6 é o primeiro chip a ser construído utilizando processos em tecnologia de vanguarda de 65 nanómetros da IBM e surge numa altura em que alguns especialistas previam o final da Lei de Moore, que considera que a velocidade do processador duplica a cada 18 meses. A importante descoberta da IBM foi conseguida através de um vasto número de inovações alcançadas ao longo de cinco anos de pesquisa e esforço de desenvolvimento para conceber o POWER6, incluindo:

• Uma arrojada forma de lidar com as instruções executadas dentro do chip. Os cientistas da IBM descobriram um método sem precedentes para aumentar o desempenho do chip mantendo estático o número de operações por ciclo, mas tornando este mais rápido, removendo trabalho desnecessário e efectuando mais em paralelo. Em consequência, o tempo de execução é reduzido para metade e o consumo de energia diminuído.

• A separação de circuitos que consomem energia dos restantes, permitindo à IBM a redução significativa da energia utilizada no resto do chip.

• Voltagem/frequência “em rotação” permitindo que o chip baixe o consumo de electricidade até 50%, com impacto no desempenho de cálculo em números inteiros.

• Um novo método de programação do chip que permite ao POWER6 operar a baixas voltagens, possibilitando que o mesmo seja utilizado tanto em ambientes blade, como em máquinas de alto desempenho e de multiprocessamento simétrico. O chip tem a largura de banda configurável, podendo os clientes escolher entre o máximo desempenho ou o custo mínimo.

O chip POWER6 abre caminho a técnicas adicionais para conservar a energia e reduzir o calor gerado pelos servidores POWER6. Os relógios do processador podem ser dinamicamente desligados quando não há nenhum trabalho útil a ser efectuado e ligados novamente quando houver instruções a executar. Quando o sistema operativo está inactivo é conseguida uma redução de energia de cerca de 35%. Igualmente, quando a memória não é utilizada integralmente, é gerida por um processo que desliga e liga novamente a energia quando for necessária. Nos casos em que é detectada uma condição de temperatura excessiva, o chip POWER6 pode reduzir a taxa de execução da instrução para permanecer dentro dos limites aceitáveis, definidos pelo utilizador.

A IBM planeia introduzir o chip POWER6 em todas as linhas de servidores System p e System i.

O primeiro servidor UNIX com mobilidade virtual activa

A IBM revela ainda uma tecnologia pioneira da indústria com uma nova característica que oferece aos clientes a capacidade de mover máquinas virtuais activas (a correr o sistema operativo) de um servidor físico UNIX para outro, enquanto se mantém a disponibilidade contínua. A função, baptizada de Partition Mobility do POWER6, permite aos clientes mover partições activas virtualizadas sem suspendê-las temporariamente. Enquanto as soluções da concorrência requerem uma reinicialização disruptiva do sistema UNIX e do conjunto de software, a IBM é a primeira vendedora a ajudar os clientes a optimizar a utilização do recurso numa escala mais alargada, permitindo que os administradores pensem em grandes grupos de servidores como um recurso fluído, ao invés de se focalizarem em cada servidor como uma única entidade com uma finalidade específica.

Na vanguarda do sector dos serviços, a IBM Global Technology Services anuncia serviços de implementação, migração e avaliação de produtos que ajudam os clientes a reduzir o tempo requerido para planear, implementar e integrar os novos servidores System p, baseados no POWER6, para os seus ambientes de produção.

Para mais informações, por favor visite www.ibm.com

Os resultados SPEC da IBM foram apresentados ao SPEC a 5/21/07. Todos os resultados dos actuais testes de referência competitivos até à data de 5/14/07.

Fontes: http://www.tpc.org, http://www.spec.org.

(1) IBM TPC-C resultado de 1.616.162 tpmC, US$3.54 numa 16-core (8 chips de processadores, 32 circuitos) 4.7 GHz POWER6 IBM System p570 (prevê-se que esta configuração esteja mundialmente disponível a 21/11/07) correndo DB2 9 em AIX 5L V5.3; IBM System p570 1-core (4.7 GHz, 1 chip, 2 cores/chip,1 circuito/core) SPECint2006 resultado de 21.6; IBM System p570 1-core (4.7 GHz, 1 chip, 2 cores/chip,1 circuito/core) SPECfp2006 resultado de 22.3;

(2) IBM TPC-C resultado de 1.616.162 tpmC, US$3.54 on a 16-core (8 chips de processores, 32 circuitos) 4.7 GHz POWER6 IBM System p570 (prevê-se que esta configuração esteja disponível mundialmente a 21/11/07) correndo DB2 9 em AIX 5L V5.3 vs. HP TPC-C resultado de 4,092,799 tpmC, $2.93/tpmC on a 128-core (64 chips, 256 circuitos) 1.6 GHz Intel® Itanium® 2 Integrity Superdome (configuração disponível a 8/23/07)

(3) Os testes de referência podem ser consultados em http://www.ibm.com/systems/p/benchmarks.

Sobre a IBM, por favor consulte: www.ibm.pt

American Airlines testa ligação Wi-Fi durante voos em 2008



A American Airlines realizará o teste com ligação sem fios durante o voo de um Boeing 767-200 a partir do próximo ano. Com a banda larga, os passageiros poderão navegar na Internet com os seus próprios portáteis.

«Compreendemos que a conectividade é importante para os nossos clientes de negócios e outros que queiram utilizar os seus PDA´s para comunicação em tempo real durante o voo», afirmou o vice-presidente executivo de marketing da companhia aérea.

O custo do serviço, cujos testes serão realizados em rotas transcontinentais, ainda não foi anunciado e a empresa também ainda não esclareceu se será possível realizar chamadas de voz através do programa Skype, uma vez que os telefonemas podem incomodar outros passageiros.

Outra companhia que também mostrou interesse em oferecer o serviço foi a Lufthansa, que declarou estar «em conversações com várias entidades para formar um novo consórcio».

Brasil vende mais PCs do que televisores

O Brasil deve vender em 2007 mais computadores do que aparelhos de TV pela primeira vez na história do varejo.
"O que é importante é que isso reflete o movimento de informatização da sociedade, e isso é um indicador do potencial de crescimento da própria economia e da produtividade de um país", disse o professor Fernando Meirelles, diretor geral da escola de Administração de Empresas da Fundação Getúlio Vargas de São Paulo.


"Estamos pegando este ano a primeira geração no ensino superior que foi alfabetizada na informática. E isso é bom porque não é possível incorporar uma pessoa à tecnologia somente com treinamentos em empresas", acrescentou.


O pesquisador estima que 19 por cento dos lares brasileiros têm computador, enquanto 60 por cento das residências possuem televisor. Atentas a indicadores como esse, fabricantes, redes varejistas e analistas apontam que o potencial de crescimento das vendas de PCs continua grande e mostram otimismo.


"Entre 2005 e 2006, 8 milhões de pessoas passaram das classe D e E para a C. Isso é um dado estarrecedor. A classe C tem mais dinheiro, tem mais gente na classe C e temos mais crédito. É uma fórmula explosiva", disse à Reuters Hélio Rotenberg, presidente da Positivo Informática, maior empresa entre os mais de 60 fabricantes de PCs registrados junto ao governo federal.


A Positivo trabalha com uma previsão de expansão média anual das vendas de computadores pessoais pela indústria no Brasil da ordem de 35,5 por cento até 2010.


Segundo as expectativas da associação que representa a indústria eletroeletrônica (Abinee), as vendas de PCs no país devem crescer 20 por cento este ano, alcançando o patamar de 10 milhões de unidades, depois de terem disparado 46 por cento em 2006, impulsionadas por crescimento econômico, financiamentos no varejo e redução de carga tributária.


Caso a previsão da Abinee se confirme, os brasileiros comprarão mais PCs do que televisores em 2007 pela primeira vez.


A média histórica das vendas anuais de televisores no Brasil está na casa das 8 milhões de unidades, e crescem em anos de Copa do Mundo, como 2006, quando foram comercializados 10 milhões de aparelhos. A expectativa da Abinee para este ano é de vendas de 9,5 milhões de televisores.


NORDESTE COM FORÇA


A expansão do mercado de PCs não se dá apenas nos grandes e tradicionais centros consumidores do país, na região Sudeste. Ela acontece também em áreas que estão obtendo melhora nos indicadores de renda, como no Nordeste.


No Extra, rede de hipermercados do grupo Pão de Açúcar, a região que abriga alguns centros de tecnologia de renome --como o Centro de Estudos e Sistemas Avançados do Recife (Cesar)-- aparece com destaque nas vendas de produtos de informática.


"O Nordeste está comprando muito forte. Desde o início do ano está comprando mais que todas as outras regiões do país", disse o gerente de compras da categoria informática do Extra, Avelino Nogueira, referindo-se a percentuais de expansão das vendas, sem fornecer números.


Segundo ele, aumento no poder aquisitivo e mais crédito disponível têm ajudado o Nordeste a apresentar o "crescimento mais significativo" de comercialização de computadores no país.


EMPURRÃO DO DÓLAR


O otimismo do setor também vem ganhando impulso com a desvalorização da moeda norte-americana, que barateia a aquisição de componentes cotados em dólar. De acordo com o analista Ivair Rodrigues, da consultoria IT Data, cerca de 85 por cento dos custos de um PC no Brasil estão atrelados ao dólar, que do início de maio de 2004 até a final de abril exibe queda de cerca de 30 por cento contra o real.


Enquanto isso, segundo a Fundação Instituto de Pesquisas Econômicas (Fipe), o preço de computadores caiu 33,9 por cento para uma inflação de 13,8 por cento no mesmo período. "É uma queda monstruosa no preço, mesmo considerando a característica inerente do computador que é o avanço muito rápido da tecnologia", disse Marcio Nakane, coordenador do índice de inflação IPC da Fipe.


No Extra, o PC mais vendido é um modelo básico que custa 899 reais e vem equipado com monitor e sistema operacional livre Linux.


De acordo com o gerente de compras de informática do Extra, quem compra mais é o cliente que está levando a primeira máquina da família. "A idéia é comprar o básico para depois acrescentar acessórios", disse Nogueira.Reuters

Governo pode anunciar sistema de rádio digital sem ter o resultado dos testes




Apenas uma emissora de rádio já entregou à Agência Nacional de Telecomunicações (Anatel) o relatório com os resultados dos testes
Apenas uma emissora de rádio já entregou à Agência Nacional de Telecomunicações (Anatel) o relatório com os resultados dos testes realizados no padrão digital de transmissão. De acordo com o presidente da Associação Brasileira de Emissoras de Rádio e Televisão (Abert), Daniel Slaviero, as emissoras entregarão os relatórios em até 60 dias. Mas a definição do governo sobre o sistema ideal pode sair antes disso. Se cumprir o prazo anunciado, o conselho consultivo apresentará sua proposta final até o dia 14 de setembro.

Atualmente, 16 emissoras de rádio AM e FM operam em caráter de teste no sistema norte-americano In Band on Chanel (Iboc). Outras 42 já pediram autorização à Anatel, mas ainda não iniciaram os testes. As únicas emissoras que irão testar o sistema europeu Digital Radio Mondiale (DRM) em ondas curtas (OC) são a Faculdade de Tecnologia da Universidade de Brasília (UnB) e a Radiobrás. Os testes ainda não começaram.

"Ninguém [empresas de radiofusão] quis optar por testes com o outro sistema. E nós achamos importante, para poder estabelecer um comparativo entre os dois sistemas", disse o professor de Telecomunicações da UnB Lúcio Martins, ao anunciar os testes.

O diretor de TV Digital do Centro de Pesquisa e Desenvolvimento em Telecomunicações (CPqD), Juliano Castilho Dall`Antonia, alerta que “é preciso ter um volume razoável de dados para responder categoricamente qual sistema é o melhor. O que parece é que a discussão está incipiente. Precisava ter mais informação. Não é só uma discussão teórica. São tantos os parâmetros e os padrões possíveis, que precisa fazer um monte de testes, depois um monte de análises”, diz.

Para o presidente da Abert, “a discussão está muito madura” e os relatórios “vêm só contribuir no seguinte sentido: se a cobertura digital está maior, igual ou menor que a analógica. Não vêm necessariamente argumentar ou questionar a qualidade do padrão. A definição do padrão já está madura”.

O pesquisador do CPqD Takashi Tome ressalta, no entanto, que é “fundamental realizar um teste completo com ambos os padrões. Para ele, enquanto não for feito, todas as discussões carecem de embasamento. No caso da TV, foi realizado um teste na cidade de São Paulo envolvendo várias emissoras e analisamos todos os parâmetros. Foi um teste que demorou quase um ano”.

Takashi Tome diz que, entre as características tecnológicas que precisam ser observadas na prática estão a cobertura, qualidade do sinal recebido, recepção em todos os pontos e qualidade do áudio de cada um dos dois sistemas (o americano e o europeu). “Em cada sistema existem várias configurações. Não é como comparar melancia com melão”, diz o pesquisador.

As 16 emissoras de rádio AM e FM que realizam testes com o sistema americano Iboc se localizam nas cidades de São Paulo, Rio de Janeiro, Belo Horizonte e Porto Alegre. Mas para Juliano Dall`Antoni, do CPqD, “estes testes estão muito pulverizados”, já que são feitos em apenas uma emissora de São Paulo e outra em Porto Alegre, e não em várias.

O presidente da Abert discorda. Segundo ele, “os testes têm caminhado muito bem e a migração traz um salto de qualidade impressionante”. O que falta, para Daniel Slaviero, e está causando a maior dificuldade para as rádios, é “a definição por parte do governo”.Agência Press

Google compra empresa de imagens aéreas


ImageAmerica é especializada na fabricação de câmeras de alta resolução, e fornceceu fotos ao Google Maps após o furacão Katrina


O Google anunciou a compra da ImageAmerica, empresa que fabrica câmeras de alta resolução para fotos aéreas.

Os termos do acordo não foram revelados.

O trabalho da ImageAmerica será incorporado ao Google Maps, e, segundo o LatLong - blog do Google que traz novidades sobre o Google Maps - os resultados da aquisição devem demorar um pouco para aparecer, pois novas imagens ainda estão em fase de pesquisa e desenvolvimento.

Fotos em preto-e-branco de alta resolução feitas pela ImageAmerica apareceram no programa de mapas do Google após o furacão Katrina, em 2005.

Google investe centenas de milhões de dólares em telefonia móvel


Reportagem do Wall Street Journal revela conversas da companhia com operadoras nos Estados Unidos e na Europa

O Google prepara investimentos de centenas de milhões de dólares em seu projeto de telefonia celular e já está em contato com operadoras dos Estados Unidos e da Europa, reportou a agência de notícias Reuters, citando o Wall Street Journal, na quinta-feira (02/08).

A Anian, companhia voltada ao mapeamento de tendências de indústria, identificou, na última semana, a parceria do Google com a chinesa High Tech Computer, a fim de criar um aparelho celular com software baseado no sistema operacional Linux. O produto deve chegar ao mercado no primeiro trimestre de 2008.

De acordo com o jornal, a empresa também teria procurado duas das maiores provedores de serviços wireless nos Estados Unidos, a AT&T e a Verizon, nos últimos meses, para negociar a venda de celulares integrados com a ferramenta de busca web do Google. Além disso, a T-Mobile, do grupo Deutsche Telekom, estaria interessada em expandir a aliança já existente com a marca no território norte-americano a outros mercados.

Fontes afirmam que a Verizon Wireless e a companhia não chegaram a um acordo sobre a possibilidade de negócio. Representantes da Verizon, T-Mobile e AT&T não comentaram o assunto.

A T-Mobile e a Vodafone já incorporam a busca do Google em seus serviços web para aparelhos móveis na Europa, enquanto a AT&T oferece a ferramenta como uma das diversas opções de busca. Mark Siegel, porta-voz da AT&T.

Por e-mail, o Google afirmou que “tem se aliado a operadoras e provedoras de conteúdo de todo o mundo, sem entrar em detalhes. De acordo com a companhia, o segmento wireless representa um mercado estratégico, no entanto, não há anúncio de planos para desenvolvimento de celulares.

Na semana passada, a empresa comentou que a Sprint Nextel estaria trabalhando na integração dos serviços do Google aos aparelhos de uma nova rede wireless, ainda em desenvolvimento.

Câmaras digitais livram Leica da falência


A fabricante alemã, que durante anos permaneceu fiel ao rolo fotográfico, apostou e ganhou.

Depois de anos de prejuízo, em resultado da queda substancial na procura de câmaras analógicas, a Leica regressa por fim aos lucros.

A prestigiada fabricante, pautada pela exclusividade dos seus produtos, chegou a correr o risco de falência, mas uma injecção de capital de última hora, por parte da multinacional austríaca ACM, evitou o desaire.

A aposta em câmaras digitais, em particular o modelo compacto M8 (10,3 megapixéis; 4500 euros), permitiu um encaixe financeiro de 4,17 milhões de euros no primeiro trimestre do ano fiscal (Março a Junho). No período homólogo de 2006 a empresa tinha perdido meio milhão de euros.

Arpões para caça à baleia substituídos por máquinas fotográfica


A observação das baleias, em especial dos cachalotes, e os golfinhos continuam a ser uma fonte de receitas para os Açores. A observação em alto mar tem fascinado turistas de todo o mundo.

No início dos anos 90, a caça à baleia foi proibida nos Açores, mas o fascínio por estes cetáceos não cessou, transformamndo-se numa fonte de receita... menos mortífera.
Tudo porque os antigos arpões utilizados para matar as baleias foram 'trocados' pelas máquinas digitais.

No arquipélago existem 23 empresas "Whale Watching" distribuídas por cinco das novas ilhas - São Miguel, Faial, Pico, Terceira e Graciosa - dedicadas à organização de expedições turísticas para observação de golfinhos e baleias em alto mar.

A observação destes gigantes dos mares transformou-se numa importante fonte de receita nos Açores. Em alto mar é possível observar cerca de 24 espécies de mamíferos, em especial golfinhos e cachalotes - a baleia mais emblemática daquela região. Citado pela Lusa, Riardo Serrão Santos, do Departamento de Oceanografia e Pescas (DOP) da Universidade dos Açores sublinhou o "elevado nível de conservação da natureza nas ilhas" . "Além das baleias de bico, é possível observar baleias azuis (as maiores de todas) durante a Primavera" , ressalvou.

Intel quer unificar nomenclaturas

A empresa planeia rever o seu esquema de nomes para processadores, a partir de Janeiro de 2008.
A ideia é eliminar a confusão de nomes e simplificar as coisas para os consumidores.

Assim, sob esta nova direcção, os Intel Viiv Processor Technology e Intel vPro Technology passarão a ser conhecidos simplesmente como Intel Core 2 Duo with Viiv (ou vPro). Ainda segundo a DigiTimes, as distinções de nomes baseados em núcleos irão também desaparecer. Assim, os Core 2 Quad, Core 2 Duo e Core 2 Solo passarão a ser conhecidos, simplesmente, por Core 2.

Também os Penitum D e Pentium Dual Core serão agrupados sob o nome Pentium. Os Core 2 Extreme, Celeron e Xeon não sofrerão alterações de nomenclatura.

Apesar de este passo simplificar as coisas no campo da nomenclatura dos processadores, ainda não está claro como irá a Intel diferenciar os CPUs no que toca a quantidade de núcleos, velocidades, e tamanho da memória cache.Mais com certeza alguma coisa deverá ser feita porque o consumidor não aguenta mais esta bagunça.

Fujitsu pode triplicar capacidades de armazenamento


A Fujitsu vai utilizar lasers para aumentar a actual capacidade dos discos rígidos.

Usando tecnologia numa escala “nano” e lasers que aqueçam partes do disco para melhor conduzirem e localizarem a informação, a Fujitsu planeia triplicar a quantidade de dados que podem ser armazenados em disco.

A marca deixou um dado: um terabit pode ser guardado numa polegada quadrada (2,54cm quadrados) até 2010. Este número é três vezes superior ao que se consegue com a actual tecnologia de gravação em disco rígido. Segundo a Beta News, no entanto, a Fujitsu parece estar a apontar para os quatro terabits por polegada quadrada.Não é sonho mais em meiados de 2010 andaremos com celulares de 100 gigas e os computadores pessoais terão em média 4 terabytes.