sábado, 4 de julho de 2009
Lei de acessibilidade - Decreto lei 5296
Regulamenta as Leis n°s 10.048, de 8 de novembro de 2000, que dá prioridade de atendimento às pessoas que especifica, e 10.098, de 19 de dezembro de 2000, que estabelece normas gerais e critérios básicos para a promoção da acessibilidade
O Presidente da República, no uso da atribuição que lhe confere o art. 84, inciso IV, da Constituição, e tendo em vista o disposto nas Leis nos 10.048, de 8 de novembro de 2000, e 10.098, de 19 de dezembro de 2000, DECRETA:
Capítulo I
Disposições Preliminares
..... para ler na integra acesse http://www.acessobrasil.org.br/index.php?itemid=43
O que é acessibilidade?
inicio do conteudo
A expressão “acessibilidade”, presente em diversas áreas de atividade, tem também na informática um importante significado.
Representa para o nosso usuário não só o direito de acessar a rede de informações, mas também o direito de eliminação de barreiras arquitetônicas, de disponibilidade de comunicação, de acesso físico, de equipamentos e programas adequados, de conteúdo e apresentação da informação em formatos alternativos.
Não é fácil, a princípio, avaliar a importância dessa temática associada à concepção de páginas para a web. Mas os dados W3C (Consórcio para a WEB) e WAI (Iniciativa para a Acessibilidade na Rede) apontam situações e características diversas que o usuário pode apresentar:
1. Incapacidade de ver, ouvir ou deslocar-se, ou grande dificuldade - quando não a impossibilidade - de interpretar certos tipos de informação.
2. Dificuldade visual para ler ou compreender textos.
3. Incapacidade para usar o teclado ou o mouse, ou não dispor deles.
4. Insuficiência de quadros, apresentando apenas texto ou dimensões reduzidas, ou uma ligação muito lenta à Internet.
5. Dificuldade para falar ou compreender, fluentemente, a língua em que o documento foi escrito.
6. Ocupação dos olhos, ouvidos ou mãos, por exemplo, ao volante a caminho do emprego, ou no trabalho em ambiente barulhento.
7. Desatualização, pelo uso de navegador com versão muito antiga, ou navegador completamente diferente dos habituais, ou por voz ou sistema operacional menos difundido.
Essas diferentes situações e características precisam ser levadas em conta pelos criadores de conteúdo durante a concepção de uma página.
Para ser realmente potencializador da acessibilidade, cada projeto de página deve proporcionar respostas simultâneas a vários grupos de incapacidade ou deficiência e, por extensão, ao universo de usuários da web.
Os autores de páginas em HTML obtêm um maior domínio sobre as páginas criadas, por exemplo, com a utilização e divisão de folhas de estilo para controle de tipos de letra, e eliminação do elemento FONT.
Assim, além de torná-las mais acessíveis a pessoas com problemas de visão, reduzem seu tempo de transferência, em benefício da totalidade dos usuários.
FONTE: http://www.acessobrasil.org.br/index.php?itemid=45
Iniciativas de Acessibilidade
Tomei a iniciativa de publicar este POST, pq gosto do tema que envolve o desenvolvimento de software, especialmente páginas web que utilizem acessibilidade. Então resolvi postar uma série de links que auxiliam na avaliação e servem como guia para garantir a acessibilidae do site.
Portal de ferramentas de avaliação e de auxilio para acessilidade em sites, contém links para as principais iniciativas voltadas para o apoio e utilização de acessibilidade em sites
http://www.acessobrasil.org.br/
Avaliador de acessibilidade páginas e-gov e outras.. avaliando padrões da páginas e elementos que facilitem a utilização dos sites por portadores de deficiência
http://www.dasilva.org.br/
Manual para acessibilidade, material muito interessante, com recomendações e links para melhoria e implantação de acessibilidade por meio de padrões
http://www.serpro.gov.br/acessibilidade/
Dúvidas estou a disposição... Vamos lá... vamos discutir
Extraído de: Secretaria da Fazenda do Estado de Sergipe - 25 de Março de 2009
sexta-feira, 3 de julho de 2009
SSP : Governo investe em tecnologia para reforçar segurança na Grande Aracaju
| ||
Fonte: http://www.ssp.se.gov.br/modules/news/article.php?storyid=3165 |
Viaturas da Polícia Militar recebem computadores com acesso à internet
O mini modem é um dispositivo de comunicação móvel que conectará os policiais militares à internet com acesso a sites como o da Rede Infoseg, Tribunal de Justiça, Registro Nacional de Veículos Automotores (Renavam), e tantos outros que determinada ocorrência exigir na busca pelo reconhecimento de acusados e foragidos da justiça, por exemplo. "A união entre tecnologia e operacionalidade facilitará o trabalho da tropa em todas as situações. Com isso, poderemos apresentar uma resposta mais eficiente à sociedade. Será um diferencial na prestação do serviço de segurança pública em Sergipe", afirmou o capitão Manoel Alves, subcomandante do Batalhão de Choque. Para manter os pequenos equipamentos nas viaturas, a PM investe mensalmente R$ 70 em cada aparelho. Com isso, os policiais que estiverem de serviço e utilizarem tais viaturas poderão acessar os sites que forem úteis para obter informações cruciais em momentos de prisões e apreensões. "A viatura da Companhia de Polícia Rodoviária que possui o computador de bordo atua no posto da cidade de Indiaroba, divisa de Sergipe com a Bahia. Esse é um ponto estratégico no combate ao crime, sobretudo para os policiais da CPRv que estão em constante mobilidade. Podemos identificar e confirmar se os condutores de determinado veículo são realmente os proprietários em uma consulta sentados na própria viatura", comentou o major Elias Linhares, comandante da CPRv. O capitão Vitor Anderson de Moraes Santos, comandante da CPRp, afirma que certamente o número de prisões e apreensões devem aumentar, já que as consultas podem ser realizadas no momento exato em que a necessidade surgir. "Até para a segurança do policial militar o acesso à internet é importante, pois iremos abordar determinado veículo, por exemplo, já sabendo o que podemos encontrar. Pela placa do carro ou motocicleta, saberemos o histórico do veículo e a forma como deverá ser conduzida a abordagem. Outro avanço é que serão seis viaturas a menos ocupando os telefones do Centro de Operações Policiais Militares (Copom) na busca por informações que podem ser obtidas em tempo real", explicou o comandante da Radiopatrulha. |
quinta-feira, 2 de julho de 2009
Preview do HTML 5
http://www.alistapart.com/articles/previewofhtml5
Exemplo de um html 5
http://www.youtube.com/html5?gl=BR&hl=pt
O ff 3.5 ja suporta o html 5
O IE 8 tbm
O Chrome e opera parece que somente 50%
HTML 5
O HTML (Hypertext Markup Language), que é responsável por organizar e formatar as páginas que visitamos na internet, está em sua versão 4.0.1 e continua evoluindo. No inicio de 2009 o WC3 - consórcio de empresas de tecnologia fundado por Tim Berners-Lee em 1994, para levar a Web ao seu máximo potencial, anuncia a primeira especificação do HTML 5. Após cinco anos de trabalho, esta, ainda, é apenas uma versão de testes do HTML 5 e a versão final está prometida para 2012. Foram feitas grandes alterações, que incluem: novas API’s, entre elas uma para desenvolvimento de gráficos bidimensionais, controle embutido de conteúdo multimídia, aprimoramento do uso off-line, melhoria na depuração de erros, entre outros avanços.
Esta evolução da linguagem padrão para web pode eliminar a necessidade de plug-ins para aplicações multimídia em navegadores. Diversos críticos consideram a tecnologia como um forte concorrente ao Flash do Adobe, Silverlight, da Microsoft, e o recente JavaFX, da Sun. Recentemente, Shantanu Narayen, diretor executivo do Adobe, disse que o Flash não irá perder mercado, porem a versão 5 do HTML já está sendo chamado de “Flash-killer”. Estas tecnologias precisarão se adaptar rapidamente para conseguir manter-se no mercado, tão popular quanto hoje. Na avaliação do co-diretor de ferramentas da Mozilla, Ben Galbraith, as tecnologias viabilizadas pelo HTML 5 como o Canvas para desenhos 2D e o armazenamento de conteúdos no desktop, permitirão que “usemos mais o browser do que nunca”.
Após dez anos sem atualizações, a forma como se escreve páginas na Internet finalmente passou por uma boa transformação. O HTML 5 oferece uma experiência web totalmente diferente para usuários e embora exista um longo caminho para ser finalizado, os navegadores mais importantes, como o Google Chrome, Safari 4, o novo Firefox 3.5 e o Internet Explorer 8 já implementaram partes da linguagem, incluindo tags de vídeo e suporte à tecnologia Canvas".
Com a evolução da linguagem, os navegadores passam da categoria “mostradores de páginas”. Na prática, coloca em risco a existência dos sistemas operacionais completos.
Bibliografia
- MacNews - WC3 anuncia a primeira especificação do HTML 5.0
- MacNews - HTML 5 coloca Adobe e tecnologia Flash em alerta
- IDG NOW - HTML 5 ameaça padrões web como Flash e Silverlight, dizem especialistas
- IDG NOW - Google diz que a Web é o novo modelo de programação
- IDG NOW - HTML 5: conheça a linguagem que vai revolucionar sua navegação na web
Uma gestão transparente voltada ao interesse público
Instituído por meio do Decreto nº 3.895, de 18/11/2004, o portal Gestão do Dinheiro Público do Governo do Paraná pode ser visto como um bom exemplo de transparência da gestão da máquina pública que mostra não apenas quanto está sendo gasto pelos órgãos públicos do Estado, mas também como estão sendo aplicadas suas receitas etc, trazendo detalhes que permitem a qualquer interessado fiscalizá-los a fim de identificar uma eventual ilegalidade ou irregularidade.
Isto é possível porque o portal permite, por exemplo, a consulta de pagamentos efetuados pelos órgãos públicos, indicando o nome da instituição pública, o credor e seu CNPJ, a data do pagamento, a quantia paga, a descrição do objeto e outros detalhes.
o artigo na integra você pode conferir em: http://egovbrasil.blogspot.com/2009/02/uma-gestao-transparente-voltada-ao_27.html
quarta-feira, 1 de julho de 2009
Licitação VERDE
Já dissemos e não comporta polêmica a afirmação de que a produção é consequência do consumo, daí porque os dois juntos, produção e consumo, formam a origem de toda a degradação do meio ambiente.
O consumidor, os órgãos públicos e privados, no ato da compra de qualquer produto, afetam, com maior ou menor impacto, a própria vida na terra; aquela simples aquisição de um imóvel, de alimento outro qualquer bem deixa de ser ação de interesse imediato e individual para se tornar uma escolha com responsabilidade social e política.
Os cuidados primários com a natureza podem significar golpe para os empresários gananciosos e descompromissados com o futuro da vida humana no planeta; as sadias providências ambientais contribuem para evitar a destruição das matas e das águas, a poluição desenfreada do ar que respiramos, e confere às gerações futuras vida saudável.
Licitação é o procedimento administrativo no qual a Administração Pública convoca, através de edital, empresas para apresentarem propostas para aquisição de produtos ou serviços; obriga-se o Estado a contratar somente quem reúne condições para atendimento do interesse público, considerando capacidade técnica do licitante, qualidade e valor do produto. É exigência constitucional para oferecer oportunidade a todos e vantagens ao poder público.
Sustentáveis são produtos ou serviços que se mostram como eficientes, incluindo aspectos ambientais, a exemplo dos bens que se servem de menos recursos naturais: a água e energia; materiais menos tóxicos; recicláveis; com maior vida útil e geram menos resíduos.
As licitações sustentáveis não estão regulamentadas pela Lei n. 8.666, nem por outra norma qualquer, mas mostra-se possível exigências de proteção à natureza, na aquisição do produto ou serviço, pela sua discriminação.
O Estado possui grande poder de compra, daí porque necessária a conscientização das autoridades para incrementar este tipo de cuidado com o ambiente.
A Consumers International, entidade reconhecida como a voz dos movimentos de consumidores de todo o mundo, conceituou consumo sustentável como sendo a opção por aquele produto que deve "satisfazer as necessidades e aspirações da geração atual sem comprometer a capacidade das gerações futuras".
A certificação com o selo verde inserido em certos produtos presta-se para situar os limites ecológicos da terra e mostra que são fabricados ou construídos em obediência às normas legais, causando menor impacto ambiental na produção e consumo.
O consumo verde, o prédio verde, a licitação verde retratam a preocupação de todo o povo com o processo acelerado de destruição do planeta. Até mesmo as edificações submetem-se à construção sustentável, através do selo conferido pela Leadership in Energy & Environmental Design (Leed).
O Centro de Computação Eletrônica fornece o selo verde para as empresas que se preocupam com a preservação do ambiente, evitando o uso de substância tóxica na fabricação de equipamentos.
A Universidade de São Paulo inseriu o selo verde nas suas licitações para compra de computadores e outros produtos. Enquanto não consta a exigência no edital, por falta de empresas com condições de atendimento, usa-se a recomendação para adquirir máquinas livres de chumbo, com componentes recicláveis e com baixo consumo de energia.
No I Fórum de Contratações Públicas, realizado em Brasília, no ano passado, enfrentou-se essa polêmica questão, consistente na criação de padrões de consumo sustentáveis na Administração Pública.
O Judiciário começa a enveredar pelo caminho verde que implica em certas medidas, como a limitação do uso do papel. O STJ e alguns tribunais de justiça dos estados já decretaram o fim do papel, através, do Diário de Justiça Eletrônico ou da economia no uso de frente e verso do papel para impressão; o recarregamento do toner, mensagens via e-mail, o uso de ferramentas de gerenciamento de energia, os escritórios virtuais, o home Office via VPN, a audioconferência, a desnecessidade da presença física diária do profissional no local de trabalho, a diminuição das viagens são outras providências que contribuem para minorar danos ao meio ambiente.
Fonte: http://www.ibrajus.org.br/revista/artigo.asp?idArtigo=104
Planejamento Estratégico: Por que, como, quando e quem deve fazer?
O objetivo do planejamento estratégico é definir um posicionamento estratégico que crie e/ou fortaleça a vantagem competitiva da empresa e estabelecer ações estratégicas para tornar este posicionamento realidade.
O que é o Planejamento Estratégico?
O planejamento estratégico é o processo através do qual a organização se mobiliza para formular as suas estratégias, orientadas para o mercado, estabelecer e desdobrar metas e elaborar planos de ação para atingi-las, considerando os ambientes interno, externo, atual e futuro.
Existe a época mais adequada para a elaboração do PE?
Não existe uma época, porém a ocorrência de alguns fatos ou até mesmo a possibilidade de ocorrência deles tais como: acirramento da concorrência, mudança no comportamento do mercado, pressão de fornecedores, chegada de novos entrantes, possibilidade de produtos substitutos, perda de margem ou de participação de mercado, exigem que a empresa repense seu futuro. Entretanto, empresas que adotam o planejamento estratégico periodicamente acabam praticando a gestão estratégica. Isto é, implementam metodologias de desdobramento dos objetivos e metas estratégicas como, exemplo destas metodologias podemos citar o Balanced Scorecard (BSC) e Gerenciamento pelas Diretrizes (GPD), adotam uma sistemática contínua de avaliação dos resultados e adoção de medidas corretivas. A utilização de softwares, conforme o “Stratec Gestão Estratégica”, que inclusive é utilizado pela Fundação Unimed, facilita muito a implementação desta sistemática garantindo assim, o alcance das metas estabelecidas.
Há instituições em que o planejamento seja mais fácil ou mais difícil?
A facilidade ou a dificuldade de realizar o planejamento estratégico de uma organização muitas vezes está ligada à dinâmica do setor no qual ela atua. Alguns setores são de tecnologia intensiva outros, nem tanto, alguns a concorrência é muito acirrada outros menos, alguns dependem de conhecimentos específicos outros não. Enfim, o setor de atuação da empresa e os cenários nos quais este setor está inserido podem definir o grau de dificuldade para se definir um posicionamento estratégico que diferencie a empresa.
Quais são as vantagens para quem adota o PE?
As empresas que adotam a gestão estratégica estão continuamente reavaliando suas estratégias para criar valor para a organização e desenvolvendo nas pessoas que ocupam função gerencial o pensamento estratégico. O pensamento estratégico é o processo de pensamento que se dá na mente das pessoas-chave da organização que as ajuda a determinar a aparência da organização em determinado momento futuro. Este processo, que contribui sobremaneira para elevar o nível da função gerencial, pode por si só constituir uma vantagem competitiva importante para uma organização.
O PE pode ser revisado? Com qual freqüência?
O posicionamento estratégico geralmente é construído num período de tempo maior 2 a 3 anos ou até mais. Porém, conforme dito anteriormente a prática do planejamento estratégico deve evoluir para a gestão estratégica e, sendo assim, a avaliação das metas e ações estratégicas deve se dar pelo menos uma vez a cada trimestre.
Quem deve fazer um PE?
Qualquer organização para construir seu sucesso futuro deve fazer uso da metodologia de planejamento estratégico, não importa se é uma organização pública, privada, ou do terceiro setor ou pequena, média ou grande. Esta prática deve ser utilizada porque o futuro é construído. Abrir mão do planejamento estratégico é o mesmo terceirizar o seu futuro. Sua organização será parte do planejamento de alguém. Abrir mão do planejamento estratégico é o mesmo que optarmos para sermos vítimas das circunstâncias.
Processo de Implementação do Balanced Scorecard
Para a definição do processo do Balanced Scorecard (BSC) utiliza-se a ferramenta de Mapa Estratégico. O mapa estratégico é uma ferramenta que serve como base para a priorização de recursos, também explicita relações de causa e efeito entre ações individuais e resultados para a empresa (muitas vezes esclarecendo como ativos intangíveis geram valor tangível), e permite que sejam realizados testes de hipóteses.
Figura 23 – Processo do Balanced Scorecard para a Southwest Airlines
Fonte: KAPLAN e NORTON, 1997.
No caso do mapa estratégico apresentado na Figura 23 acima, este representa toda a estratégia da Southwest Airlines, no mercado de aviação norte-americano. A Southwest foi a empresa pioneira em utilizar a estratégia que a Gol Linhas Aéreas utilizou no Brasil, de baixo custo na operação, e aumen
Assim, ao analisar o mapa estratégico da empresa, pode-se visualizar claramente como que o alinhamento do pessoal de terra (aspecto intangível), pode levar ao aumento de clientes (maior receita) e menos aviões (menor custos), ambos resultados tangíveis.
No processo de implementação do BSC, o mapa estratégico acaba se tornando uma excelente ferramenta para tornar claros os objetivos e as estratégias da organização, para todos os envolvidos no processo.
Fonte: http://www.administracaoegestao.com.br/planejamento-estrategico/processo-de-implementacao-do-balanced-scorecard/
Livros Criptografia e Segurança
Guia definitivo sobre o assunto, "Criptografia e Segurança de Redes", 4º edição, apresenta a teoria, a prática e os princípios para o desenvolvimento de sistemas que visam a segurança de computadores e redes, bem como das informações armazenadas e que trafegam nesses meios.
Seguindo o estilo didático característico de William Stallings, o livro inicialmente traz, em detalhes, conceitos e padrões criados e utilizados para a criptografia, tais como cifras, assinaturas digitais e criptografia de chaves pública e simétrica. Em seguida, aborda a parte prática da segurança de redes, apresentando os recursos de última geração para a segurança de autenticação, IP e Web. Por fim, discute os desafios da segurança de sistemas, explicando como se dão e como evitar os mais comuns e danosos ataques da atualidade.
Uma ampla gama de recursos e informações disponíveis on-line, no site exclusivo do livro, complementa a obra, indispensável para professores e estudantes de segurança de redes e criptografia, nos cursos de ciência da computação, e para qualquer profissional que queira se destacar no mercado de trabalho.
Criptografia em Software e Hardware
Este livro apresenta conceitos de segurança e detalhes de implementação dos principais algoritmos criptográficos, tanto em software quanto em hardware, e discute as vantagens e desvantagens relativas à sua utilização. Descreve o funcionamento dos mais importantes algoritmos de criptografia, sem aprofundar conceitos matemáticos. Relaciona os benefícios de se implementar esses algoritmos em hardware, utilizando FPGAs (nova tecnologia para projetar sistemas digitais baseada no conceito de circuitos programáveis). Para facilitar o entendimento do projeto dos algoritmos em hardware, introduz os conceitos básicos da linguagem VHDL, muito utilizada em sistemas digitais para descrever o comportamento de circuitos e componentes digitais.
Livro Criptografia e Segurança - O Guia Oficial RSA

* Autor: Steve Burnett e Stephen Paine
* Publicação: 04 / 2002
* Editora: Campus / Elsevier
* ISBN: 8535210091
* Páginas: 392
* Idioma: Português
A criptografia é uma das maneiras mais inteligentes de proteger as informações numa rede e reduzir brechas de segurança e ataques de hackers. Pelo fato de o processo de implementação da criptografia ser complexo, são necessários conselhos práticos e técnicas testadas que poderão ser encontradas neste guia oficial.
Escrito por dois funcionários da RSA Security, esta obra de referência para especialistas explica as diferenças entre a criptografia de chave simétrica e a de chave pública; como o PKI e o X.509 afetam a segurança; e muito mais.
Disponibiliza também estudos atuais de casos que detalham os diferentes tipos de vulnerabilidades relacionados à segurança e quais tipos de aplicativos de criptografia podem prevenir os ataques.
Este livro mostra como:
* Distinguir os diferentes tipos de criptografia de algoritmos de chave simétrica e onde cada um deles é mais bem utilizado
* Descobrir como funcionam as senhas baseadas em criptografia
* Comunicar-se de maneira segura por canais inseguros usando a tecnologia de chave pública
* Usar a tecnologia de chave pública para a autenticação e não-repúdio
* Reconhecer como as empresas usam a criptografia para aprimorar a segurança por meio de estudos de casos práticos
* Obter detalhes sobre os atuais padrões e tecnologia PKI — incluindo informações sobre fornecedores
* Compreender os certificados X.509 e as estruturas de diretório
* Obter uma visão geral operacional dos protocolos mais comumente usados — incluindo IPSec, SSL e SET
terça-feira, 30 de junho de 2009
Entenda o que é a Web 2.0
Dentro deste contexto se encaixa a enciclopédia Wikipedia, cujas informações são disponibilizadas e editadas pelos próprios internautas.
Também entra nesta definição a oferta de diversos serviços on-line, todos interligados, como oferecido pelo Windows Live. Esta página da Microsoft, ainda em versão de testes, integra ferramenta de busca, de e-mail, comunicador instantâneo e programas de segurança, entre outros.
Muitos consideram toda a divulgação em torno da Web 2.0 um golpe de marketing. Como o universo digital sempre apresentou interatividade, o reforço desta característica seria um movimento natural e, por isso, não daria à tendência o título de "a segunda geração". Polêmicas à parte, o número de sites e serviços que exploram esta tendência vem crescendo e ganhando cada vez mais adeptos.
Confira um glossário da Web 2.0 elaborado pela Folha de S.Paulo
AdSense: Um plano de publicidade do Google que ajuda criadores de sites, entre os quais blogs, a ganhar dinheiro com seu trabalho. Tornou-se a mais importante fonte de receita para as empresas Web 2.0. Ao lado dos resultados de busca, o Google oferece anúncios relevantes para o conteúdo de um site, gerando receita para o site a cada vez que o anúncio for clicado
Ajax: Um pacote amplo de tecnologias usado a fim de criar aplicativos interativos para a web. A Microsoft foi uma das primeiras empresas a explorar a tecnologia, mas a adoção da técnica pelo Google, para serviços como mapas on-line, mais recente e entusiástica, é que fez do Ajax (abreviação de "JavaScript e XML assíncrono") uma das ferramentas mais quentes entre os criadores de sites e serviços na web
Blogs: De baixo custo para publicação na web disponível para milhões de usuários, os blogs estão entre as primeiras ferramentas de Web 2.0 a serem usadas amplamente
Mash-ups: Serviços criados pela combinação de dois diferentes aplicativos para a internet. Por exemplo, misturar um site de mapas on-line com um serviço de anúncios de imóveis para apresentar um recurso unificado de localização de casas que estão à venda
RSS: Abreviação de "really simple syndication" [distribuição realmente simples], é uma maneira de distribuir informação por meio da internet que se tornou uma poderosa combinação de tecnologias "pull" --com as quais o usuário da web solicita as informações que deseja-- e tecnologias "push" --com as quais informações são enviadas a um usuário automaticamente. O visitante de um site que funcione com RSS pode solicitar que as atualizações lhe sejam enviadas (processo conhecido como "assinando um feed"). O presidente do conselho da Microsoft, Bill Gates, classificou o sistema RSS como uma tecnologia essencial 18 meses atrás, e determinou que fosse incluída no software produzido por seu grupo
Tagging [rotulação]: Uma versão Web 2.0 das listas de sites preferidos, oferecendo aos usuários uma maneira de vincular palavras-chaves a palavras ou imagens que consideram interessantes na internet, ajudando a categorizá-las e a facilitar sua obtenção por outros usuários. O efeito colaborativo de muitos milhares de usuários é um dos pontos centrais de sites como o del.icio.us e o flickr.com. O uso on-line de tagging é classificado também como "folksonomy", já que cria uma distribuição classificada, ou taxonomia, de conteúdo na web, reforçando sua utilidade
Wikis: Páginas comunitárias na internet que podem ser alteradas por todos os usuários que têm direitos de acesso. Usadas na internet pública, essas páginas comunitárias geraram fenômenos como a Wikipedia, que é uma enciclopédia on-line escrita por leitores. Usadas em empresas, as wikis estão se tornando uma maneira fácil de trocar idéias para um grupo de trabalhadores envolvido em um projeto.
Virtualização: vantagens em tempos de crise
Venho acompanhando de perto este mercado e percebo que além das diversas vantagens proporcionadas, o aumento da demanda por virtualização ganhou um grande impulso com a crise econômica mundial. A turbulência financeira tende, cada vez mais, a impulsionar esses projetos, já que eles permitem facilidade de gestão e a implementação de novos sistemas, sem o pesado investimento em hardware, etc..
De acordo com pesquisas do Gartner, o faturamento mundial com software de virtualização devem crescer 43% já em 2009, saltando de US$ 1,9 bilhão, para US$ 2,7 bilhões. Em relação a 2008, o crescimento do mercado global de virtualização pode chegar a 20%, este ano. Já as vendas de desktops virtualizados devem mais que triplicar, aumentando de US$ 74,1 milhões, em 2008, para US$ 1,1 bilhão neste ano.
Motivadas pela possibilidade de reduzir custos com componentes de rede, energia e refrigeração, as empresas acabam encontrando na virtualização, benefícios que vão muito além disso. Diversas empresas consideram o maior atrativo, a possibilidade de poder fazer tarefas mais rapidamente, já que essa tecnologia permite a otimização de processos, ao dispor alta confiabilidade, consolidação, desempenho, escalabilidade e simplificação do ambiente. Nos dias de hoje, em que a concorrência é acirrada e que tempo vale dinheiro, aumentar a produtividade pode fazer toda a diferença.
Outra grande vantagem, é a adesão aos requisitos da tão comentada e factual, TI Verde. Virtualizar servidores e desktops atendem às políticas de responsabilidade ambiental, reduzindo drasticamente o consumo de energia elétrica em cerca de 30% a 40%, e a consequente emissão de carbono para a atmosfera. De acordo com alguns simuladores de TI Verde disponíveis na web, um ambiente formado por 200 servidores, 100% virtuais, faz a emissão de CO2 na atmosfera cair cerca de 150%.
Mais do que uma tecnologia da atualidade, a virtualização é uma ferramenta imprescindível para quem quer ampliar vantagem competitiva e aumentar a produtividade, mantendo o foco nas atividades principais de negócio.
Virtualização transforma ambiente de negócios e amplia vantagens competitivas
Muitos gestores de TI estão familiarizados com as vantagens que a virtualização de servidores e desktops oferece. Reconhecem a virtualização, inclusive, como uma espécie de precursora da nuvem computacional (cloud computing), em que é possível acessar remotamente pastas, programas, e-mails etc. Ou seja, quem ainda não entendeu o quanto a virtualização transforma o ambiente de negócios é melhor se apressar.
O gerente de TI costuma se questionar constantemente sobre a performance e a funcionalidade dos recursos tecnológicos de que dispõe na empresa. Ele sabe que há sempre novidades capazes não só de suportar as operações rotineiras, mas de resultar em vantagem competitiva frente à concorrência. No caso da virtualização, os equipamentos físicos passam a se comportar como software, possibilitando relevante corte de custos e redirecionamento de recursos humanos para áreas mais estratégicas da empresa.
O fato de a virtualização separar os componentes - e favorecer a mobilidade das tecnologias entre plataformas inseridas na mesma infraestrurura - permite que se faça mais por menos. É o objetivo de quase toda empresa hoje em dia. Já as vantagens da virtualização dos desktops são ainda mais claras, à medida que os equipamentos constituem o mais alto investimento do ambiente de TI.
Conheça as oito principais vantagens da virtualização.
- Cada usuário tem seu próprio ambiente de trabalho, podendo instalar ou deletar aplicações quando e se necessário;
- Todo ambiente pode ser customizado com diferentes aplicações sem comprometer os demais usuários;
- Mesmo aplicações que não podem ser compartilhadas por diversos usuários têm condições de ser instaladas;
- Capacidade de acessar desktops remotamente e com segurança;
- Acesso seguro e rápido a periféricos como impressoras e scanners;
- Maior economia no espaço de armazenamento, nos custos gerais de data center, no resfriamento e no espaço físico;
- Interação mais ágil com o mercado, permitindo apresentar produtos, seviços e projetos com mais rapidez;
- Possibilidade de fazer backup regularmente e restaurar dados em poucos instantes.
Inovação tecnológica terá linha de crédito com juro de 1% ao ano
O cartão foi projetado nos mesmos moldes do atual cartão BNDES para micro e pequenas empresas, porém, nesse caso, para financiar a contratação de serviços de inovação. Dentro dessa nova formatação, os centros de tecnologia, o Sistema S (Sesc, Senac, Senai e Sesi) e o Sistema Brasileiro de Tecnologia (Sibratec), ligado ao Ministério da Ciência e Tecnologia, ajudarão a gerenciar o interesse das empresas interessadas em tomar recursos para inovação.
O pagamento poderá ser feito em até 48 parcelas pré-fixadas, através do Banco do Brasil, Bradesco e Caixa Econômica. "Estamos desburocratizando o processo e facilitando o acesso aos recursos", diz, acrescentando que não será necessária a aprovação de um projeto de inovação para as companhias. Souza disse ainda que o Cartão BNDES para Inovação não vai competir com nenhuma linha da Financiadora de Estudos e Projetos (Finep) e nem do próprio Banco Nacional de Desenvolvimento Econômico (BNDES).
O anúncio foi feito durante a IX Conferência Anpei de Inovação Tecnológica , promovida em Porto Alegre, até esta quarta-feira (10/06), pela Associação Nacional de Pesquisa & Desenvolvimento das Empresas Inovadoras. Na oportunidade, Marcos Vinicius também anunciou o fim da Secretaria de Tecnologia Industrial e sua substituição, nos próximos 30 dias, pela Secretaria de Inovação Tecnológica.
Para o vice-presidente da Associação Nacional de Pesquisa e Desenvolvimento das Empresas Inovadoras (Anpei), Carlos Calmanovici, a notícia é animadora porque há projetos inovadores no Brasil que merecem ser incentivados.
Ainda durante a IX Conferência Anpei, outro destaque foi a participação do diretor-fundador da Zeri Foundation, Gunter Pauli. Ele defendeu a necessidade de que a economia seja dirigida por inovação, combinando ciência com a necessidade social.
"A sustentabilidade é a capacidade de responder às necessidades de todos os seres existentes no planeta, mas hoje não funciona assim, já que são gastos cerca de US$ 1 trilhão para se desfazer do lixo oriundos da indústria, hospitais, agricultura, mineração e outros setores", disse. "Poderíamos usar esse montante para eliminar a fome no mundo e minimizar outros problemas sociais", completou.
(Fonte: Jornal do Comércio do RS e Agência Sebrae de Notícias)
http://www.sedetec.se.gov.br/modules/news/article.php?storyid=555
Virtualização é MASSA!
Na Pyxis Tecnologia trabalhamos com virtualização há pelo menos 5 anos e foi a solução para os nossos problemas de contingência e indisponibilidade de servidores. Trabalhamos com cerca de 10 servidores, sendo 8 virtualizados. Os sistemas operacionais são os mais variados possíveis, desde o linux, passando pelo Windows Server 2003 até o Windows Server 2008.
Relato encontrado na WEB:
Fonte: http://damasio.wordpress.com/2008/04/24/funcionamento-vantagens-e-desvantagens/
Que a virtualização pode permitir que você execute softwares incompatíveis com seu sistema operacional, você já viram; que ela também permite que sistemas operacionais distintos operem sobre um mesmo conjunto de hardware, isoladamente, vocês também já viram.
Mas como isso é possível? Então eu posso criar inifinitas máquinas virtuais sobre uma única máquina física sem ter perda de performance? Nada disso! Vamos por partes..
Para que seja possível esse acesso indireto ao hardware por um ambiente virtual é preciso que se tenha instalado um software gerenciador de máquinas virtuais, como o Xen, o VMware, entre outros.
É sobre esse tipo de software que o sistema operacional da máquina virtual é instalado. Portanto, é ele quem funciona como um middleware e faz todo esse intermédio entre o ambiente virtual e o hardware..
Entretanto, devemos nos atentar às limitações de hardware da virtualização, pois o processamento, a capacidade de armazenamento da memória virtual e o espaço em disco da máquina são compartilhados pelos ambientes virtuais, e sendo assim, o hardware pode se tornar o gargalo da virtualização.
Não podemos simplesmente criar quantas máquinas virtuais quisermos e não termos perda de performance significativo. Devemos dosar o compartilhamento com cautela..
Faladas algumas das limitações da virtualização, vejamos agora algumas das muitas vantagens que essa solução nos proporciona. Dentre as tantas, podemos citar:
- Segurança: as VM’s (virtual machines) são isoladas e independentes umas das outras
- Redução de custos: necessita-se de menos hardware (menos dispositivos físicos, como computadores, switches etc.) para gerenciar uma rede
- Redução do consumo de energia: devido a redução na quantidade de dispositivos
- Melhor aproveitamento do espaço físico: com menos máquinas a necessidade de espaço diminui
- Melhor aproveitamento do hardware: com o compartilhamento de hardware entre as VM’s numa mesma máquina, reduz-se a ociosidade do mesmo
- Possibilidade de simular redes de computadores com menor demanda de hardware
- Possibilidade de utilizar de SO’s (sistemas operacionais) que não possuam compatibilidade com o hardware sobre o mesmo:caso o software gerenciador de máquinas virtuais seja compatível com esse hardware e possibilite a emulação do mesmo para um SO incompatível
- Facilidade ao migrar ambientes: evita reinstalação e reconfiguração dos sistemas a serem migrados
- Utilização de uma VM como ambiente de desenvolvimento:possibilita testes em SO’s distintos e, por prover um ambiente isolado, evita que falhas na configuração e/ou execução, ou até mesmo vírus, danifiquem o hardware da máquina
.
Dentre todas essas vantagens, podemos destacar segurança e redução de custo e espaço. Essas características são cada vez mais procuradas no mercado..
Portanto, vemos que o conceito de virtualização pode ser algo muito interessante de se aprender e implantar, até porque o mercado vem aderindo cada vez mais a essa solução, que tem muito o que evoluir.
SSP : Governo de Buenos Aires estuda tecnologias implantadas pela Segurança Pública de Sergipe
http://www.ssp.se.gov.br/modules/news/article.php?storyid=3338
GE cria material que armazena 500 GB em disco do tamanho de um DVD
Publicada em 28 de abril de 2009 às 08h27
Atualizada em 28 de abril de 2009 às 08h35
Framingham - Novo material ‘micro-holográfico’ levará à capacidade de armazenar mais de 1 TeraByte de dados em um único disco.
A GE desenvolveu um material que permitirá o armazenamento de 500 GB em um disco holográfico do tamanho de um DVD, anunciou a fabricante nesta segunda-feira (27/04).
O material de armazenamento ‘micro-holográfico’ da GE armazena o equivalente a 20 Blu-rays ou 100 DVDs.
A fabricante planeja oferecer os discos comercialmente em 2012. Eles poderão ser lidos em sistemas similares a um player comum, que também lerá CDs, DVDs e Blu-rays. A nova tecnologia é diferente dos outros discos ópticos apenas na capacidade de armazenamento.
“O dia em que você poderá armazenar sua coleção completa de filmes em alta definição em um único disco, com suporte a formatos de televisão 3D, por exemplo, está mais perto do que você pensa”, afirma o responsável pelo programa de Armazenamento Holográfico da GE, Brian Lawrence.
Esta inovação levará à capacidade de armazenar mais de 1 TB (TeraByte) de dados em um único disco.
Lucas Mearian, editor do Computerworld, de Framingham
Copyright 2009 Now!Digital Business Ltda. Todos os direitos reservados.
Fonte: (http://idgnow.uol.com.br/computacao_corporativa/2009/04/27/ge-cria-material-que-armazena-500-gb-em-disco-do-tamanho-de-um-dvd)
Prefeitura de SP instala chip de RFID em carros
Por Daniela Braun - IDG Now!
Publicada em 28 de setembro de 2005 às 12h58
Etiqueta com chip instalada em 500 veículos da capital medirá velocidade do trânsito entre Av. Rebouças, Nove de Julho, Paulista e marginal Pinheiros.
Nos próximos dias, a Secretaria Municipal de Transportes (SMT) da Prefeitura Municipal de São Paulo começa a testar um sistema de identificação de veículos pela tecnologia RFID (Radio Frequency Identification), que fornecerá informações mais precisas sobre o trânsito na cidade.
Os testes serão realizados durante seis meses no quadrilátero nas avenidas Rebouças, Nove de Julho, Paulista e marginal Pinheiros envolvendo 500 veículos - ônibus e carros de voluntários da prefeitura, informa Helder Lima, coordenador de comunicação da SMT.
No quadrilátero, antenas de captação de dados em RFID poderão identificar e localizar cada veículo por meio de uma etiqueta inteligente - do tamanho de um cartão magnético - colada no vidro dianteiro do carro.
Por meio do microchip presente na etiqueta, as informações coletadas pelas antenas serão enviadas a uma central de operação que será localizado na CET (Companhia de Engenharia de Tráfego).
A tecnologia permitirá que a CET detecte a velocidade média dos veículos no quadrilátero onde os congestionamentos são constantes. Outra possibilidade é ajudar a localizar o ônibus durante o trajeto do coletivo.
A localização do sistema ainda deve ser definida. Segundo Lima, a central pode ser instalada nas dependências da CET na Rua Bela Cintra, região central da cidade, ou na Rua Sumidouro com a marginal Pinheiros, na zona Oeste.
Os testes serão realizados gratuitamente pela empresa CCBR (Catel Construções do Brasil), que fornece tecnologia ao sistema Sem Parar de cobrança eletrônica de pedágio e ofereceu o projeto à prefeitura.
"O que pretendemos é fazer um laboratório e conhecer a tecnologia em questão para sabermos quais contribuições poderá dar à necessidade cada vez maior de monitoramento no trânsito e transporte", comenta Lima.
Mercado
O mercado global de RFID cresceu 35% em 2004, movimentando mais de 1,5 bilhão de dólares, segundo a empresa de pesquisas VDC (Venture Development Corporation). O VDC acredita que a tecnologia deva crescer a taxas médias anuais de 43% até 2007.
Para o mercado de varejo, a tecnologia representa a evolução do código de barras. Entre os grandes incentivadores desta migração está a rede norte-americana Wal-Mart e o Departamento de Defesa dos Estados Unidos.
Em Janeiro deste ano, o Wal-Mart solicitou a seus 100 maiores fornecedores a aplicação de etiquetas com chip RFID em todos os produtos distribuídos para sua rede de lojas, nos Estados Unidos.
História
O Radio Frequency Identification (RFID) é um método de coletar e armazenar dados usando dispositivos chamados etiquetas inteligentes ou transponders (chips transmissores de sinal)
As etiquetas de RFID, que podem ser afixadas em produtos, veículos, animais ou pessoas, contém microchips e antenas que se comunicam com antenas de captação de dados via radiofreqüência.
Sistemas de transmissão de dados similares ao RFID tem sido trabalhados desde a década de 20. Em 1939, na Segunda Guerra Mundial, os ingleses criaram um sistema parecido, o IFF (Identification, Friend or Foe) para identificar aeronaves aliadas ou inimidas. Efetivamente, o RFID mesmo começou a tomar forma no final dos anos 60.
Copyright 2008 Now!Digital Business Ltda. Todos os direitos reservados.
Computação Ubíqua
Outsourcing: Companhias apostam na terceirização total de TI
Por CIO/Índia
Publicada em 18 de março de 2009 às 11h00
Atualizada em 20 de março de 2009 às 09h17
Bangalore - Modelo poupa investimentos em infraestrutura e garante mais agilidade e para tarefas estratégicas e menos operacionais.
A Índia Infoline, companhia de comércio online internacional, optou por um modelo de terceirização total de todas as suas aplicações e processos de TI. O motivo? "Precisamos de tempo para gerenciar questões voltadas ao negócio, mas sem perder a garantia da disponibilidade dos sistemas, dos dados e da segurança da informação", justifica Titus Cunaseelan, CTO da companhia.
Hoje, o provedor de serviços contratado por Gunaseelan seleciona, implementa e gerencia todos os serviços de TI da companhia e trata ainda das aplicações e dos processos de negócio.
Shirish Gariba, CIO de outra empresa indiana, a Elbee Express – que atua com logística e entrega de produtos em todo o mundo – conta que apostou na contratação de um fornecedor especializado no gerenciamento de dados para administrar todas as suas aplicações, ferramentas, mailings e data centers.
“Sou a única pessoa de TI na organização”, conta o executivo. “Procuro me concentrar em questões estratégicas e, por isso, o outsourcing mostra-se essencial para trazer produtividade à área. Com isso, além de poupar o tempo que eu gastaria com tarefas operacionais, posso economizar recursos que seriam gastos com pessoas e com energia elétrica”, justifica Gariba.
Casos como esses mostram que, embora o modelo de outsourcing gere certa insegurança para os executivos de TI - principalmente no que diz respeito ao tratamento e controle das informações armazenadas –, ele tem servido para direcionar uma das principais preocupações dos CIOS: reduzir custos fixos. Além disso, esse modelo pode trazer mais flexibilidade e agilidade para a equipe de tecnologia que, graças à terceirização, pode dedicar-se a tarefas mais estratégicas e menos operacionais.
O analista-sênior da Forrester Research, Bill Martorelli, monitora essa tendência de adoção do padrão de serviços hospedados em data centers externos. “A popularidade da terceirização de storage está aumentando significativamente por conta da crise econômica mundial”, afirma Martorelli.
Galen Schreck, também analista-sênior da Forrester Research, concorda com a afirmação do colega e compara o modelo de outsourcing à construção de um imóvel. “Se uma empresa precisasse urgentemente de mais espaço físico, construiria um edifício ou procuraria um prédio pronto, financiaria o pagamento e já efetuaria a mudança? A opção por um data center terceirizado parte do mesmo princípio”, informa Schreck.
Gunjan Trivedi, editor da CIO, da Índia
Copyright 2009 Now!Digital Business Ltda. Todos os direitos reservados.
Redução de custos é o maior motivador para investimentos em TI
Por Rodrigo Afonso, repórter do COMPUTERWORLD
Publicada em 30 de abril de 2009 às 15h15
Atualizada em 04 de maio de 2009 às 15h30
São Paulo - Segundo estudo da IDC, 29% das empresas já fizeram cortes de custos em suas operações para aumentar eficiência.
Um estudo global realizado pela consultoria IDC sobre o fator determinante para a estratégia das organizações em 2009, indica que 39% das empresas investem em tecnologia com o objetivo de reduzir custos da organização.
>> Participe das discussões da CW Connect
Para 29% das empresas entrevistadas, a redução de custos já ocorreu e o principal motivador de suas estratégias foi o aperfeiçoamento da eficiência e a previsibilidade sobre o mercado. Outras 27% das companhias investem para crescer em suas operações e as demais 5% querem diminuir o tempo de resposta ao mercado.
O estudo aponta ainda que a indústria da tecnologia da informação passa por uma transformação que aumentará o foco das companhias em mercados emergentes, no fornecimento de soluções empacotadas, em projetos de curto prazo.
“A renegociação de contratos é outra característica da transformação, fato que dará muito trabalho para as empresas que vendem software. É necessário repensar a estratégia para esse cenário”, afirma José Curcelli, presidente da Abes (Associação Brasileira das Empresas de Software), que encomendou a pesquisa.
Com orçamento reduzido em relação a 2008, algumas tendências apontadas para este ano ficarão ainda mais aceleradas, como virtualização, voz sobre IP, consolidação, ferramentas de gerenciamento, maior negociação com fornecedores, terceirização e aprimoramento da estratégia de outsourcing.
“O foco nas pequenas e médias empresas deve ser outra constante, já que elas serão as maiores consumidoras de tecnologia durante o período de retração econômica. O faturamento de TI nesse segmento depende, no entanto, do acesso a financiamento e das políticas para as companhias desse porte”, diz Curcelli.
As tecnologias que tornam verde a TI
Fazer uma pesquisa no Google gera 7 gramas de CO2 na atmosfera. O mesmo que ferver um bule de chá. O cálculo feito pelo físico americano Alex Wissner-Gross, da Universidade de Harvard, claro, é contestado pelo Google. A empresa retruca dizendo que cada consulta gera 0,2 g de CO2. A polêmica fica ainda maior por envolver a gigante da busca, e dá uma boa idéia da importância prática da TI verde.
Além da face institucional, como cofundadora da Iniciativa de Computação dos Salvadores do Clima, o Google usa muita virtualização e consolidação de servidores para usar menos máquinas que em outro modelo de computação – que inviabilizaria o modelo de negócios da empresa. Assim mesmo, os data centers do Google geram toneladas de CO2, assim como outras grandes indústrias.
O britânico David Powell, presidente para a América Latina da Software AG, sabe dos benefícios que a atitude ecologicamente correta traz. Parte da estrutura do edifício-sede da companhia, em Darmstadt (Alemanha), é de madeira. “Somos ecoamigáveis há 40 anos”, diz Powell. “E temos um programa contínuo de redução de servidores.”
Do ponto de vista do produtor de software, que no fim das contas gera os consumos de máquina e de energia, quanto mais eficientes os processos dos programas que movem os negócios de uma empresa, mais verde será a TI.
No fim da história é o CIO que colocará a estratégia verde em prática. A decisão será sobre tecnologias como: CPUs multicore, virtualização, consolidação de servidores e gerenciamento eletrônico de documentos.
Mais chips, menos máquinas
A carga de informações para processar aumenta exponencialmente e o poder computacional dos servidores tem que dar conta dessa demanda. Os processadores multicore são o motor dos servidores poderosos que cumprem essa tarefa.
Com mais núcleos de processamento em cada CPU, cada máquina é mais poderosa e um menor número de unidades será adquirida. O melhor desempenho das maquinas multicore também exige mais consumo de energia. Mas pense no seguinte detalhe: a concentração de poder de processamento acaba sendo melhor que um grande parque de máquinas para fazer a mesma tarefa.
Chip dualcore é pouco para esses servidores. O IBM Cell, por exemplo, chegou a nove núcleos. Os servidores hexacore são hoje o motor dos servidores mais poderosos hoje no mercado.
Virtualização faz servidor virar polivalente
Antigamente, o senso comum em TI era distribuir cada tarefa em um servidor. Um servidor de arquivos, um servidor do banco de dados, um servidor de email, um de internet etc. O problema é que cada uma ocupa um espaço diferente de memória, tem picos de uso durante em uma semana e ociosidade no resto do mês.
O desperdício de máquina acabou com a tecnologia de virtualização de servidores. Virtualizar é transportar cada um daqueles servidores para uma máquina só ou mesmo vários servidores, mas em menor número.
A carga dos servidores em cada máquina e o uso da conexão são gerenciadas por software, e busca sempre a distribuição mais racional e econômica.
Fonte: http://info.abril.com.br/ti-verde/as-tecnologias-que-tornam-verd.shtml
5 mitos sobre otimização de energia em data centers
Em um recente evento para CIOs (Chief Information Officers) e CFOs (Chief Financial Officers), entendi o motivo de tantos executivos fugirem dos temas relacionados à TI Verde. As empresas têm sido bombardeadas pelos fabricantes por uma avalanche de soluções ecologicamente corretas mas que, na maior parte do tempo, prometem benefícios enganosos e totalmente sem sentido.
Este cenário é boa parte dos problemas que as organizações enfrentam hoje em relação à TI Verde. Apesar de todas as inovações para tornar os data centers mais eficientes – do ponto de vista energético –, as boas ideias são apagadas pelo discurso das áreas de marketing e vendas dos fornecedores de tecnologia da informação.
Tenho esperanças, no entanto, que os executivos responsáveis pelos data centers entendam que melhorar a PUE (Power Usage Efficiency ou, em português, a eficiência no uso energético) representa um caminho para acelerar o retorno sobre investimento nessas estruturas, reduzir custos e os estragos à natureza.
Para ajudar a entender o contexto, pense no que aconteceria se, de uma hora para outra, o combustível do seu veículo tivesse uma melhora de 35% em termos de eficiência (kilômetros por litro). Para isso, basta fazer um upgrade, que exige investimentos que se pagam no primeiro ano, graças à redução do consumo. Essa fórmula atrairia uma grande parte dos consumidores, certo? Porém, por que existe tão pouco interesse em aplicar esse mesmo conceito aos data centers?
Acredito que essa dificuldade deve-se ao fato de que é muito difícil prever com certeza quanto os investimentos em soluções verdes podem gerar de melhorias. Além disso, o mercado começa a se perguntar até que ponto a indústria não está tentando vender os mesmos velhos produtos, só que agora com uma abordagem ecológica.
Sem me aprofundar nas tecnologias utilizadas para redução de custos, seguem algumas dicas de que como os gestores de data center podem ir além dos discursos dos fornecedores na hora de avaliar se vale a pena investir em soluções verdes.
Mas, mais uma vez, isso, por si só, não melhora o PUE. Se o data center está operando com 10% de sua capacidade, simplesmente reduzir um emissor de calor pode diminuir a necessidade do sistema de resfriamento em um nível que afete o PUE. No entanto, em ambientes que operam perto de 80% da capacidade máxima o mesmo não deve acontecer.