sábado, 4 de julho de 2009

Lei de acessibilidade - Decreto lei 5296

Decreto-lei 5296 de 2 de dezembro de 2004


Regulamenta as Leis n°s 10.048, de 8 de novembro de 2000, que dá prioridade de atendimento às pessoas que especifica, e 10.098, de 19 de dezembro de 2000, que estabelece normas gerais e critérios básicos para a promoção da acessibilidade

O Presidente da República, no uso da atribuição que lhe confere o art. 84, inciso IV, da Constituição, e tendo em vista o disposto nas Leis nos 10.048, de 8 de novembro de 2000, e 10.098, de 19 de dezembro de 2000, DECRETA:



Capítulo I
Disposições Preliminares

..... para ler na integra acesse http://www.acessobrasil.org.br/index.php?itemid=43

O que é acessibilidade?

O que é acessibilidade?

inicio do conteudo
A expressão “acessibilidade”, presente em diversas áreas de atividade, tem também na informática um importante significado.

Representa para o nosso usuário não só o direito de acessar a rede de informações, mas também o direito de eliminação de barreiras arquitetônicas, de disponibilidade de comunicação, de acesso físico, de equipamentos e programas adequados, de conteúdo e apresentação da informação em formatos alternativos.

Não é fácil, a princípio, avaliar a importância dessa temática associada à concepção de páginas para a web. Mas os dados W3C (Consórcio para a WEB) e WAI (Iniciativa para a Acessibilidade na Rede) apontam situações e características diversas que o usuário pode apresentar:

1. Incapacidade de ver, ouvir ou deslocar-se, ou grande dificuldade - quando não a impossibilidade - de interpretar certos tipos de informação.

2. Dificuldade visual para ler ou compreender textos.

3. Incapacidade para usar o teclado ou o mouse, ou não dispor deles.

4. Insuficiência de quadros, apresentando apenas texto ou dimensões reduzidas, ou uma ligação muito lenta à Internet.

5. Dificuldade para falar ou compreender, fluentemente, a língua em que o documento foi escrito.

6. Ocupação dos olhos, ouvidos ou mãos, por exemplo, ao volante a caminho do emprego, ou no trabalho em ambiente barulhento.

7. Desatualização, pelo uso de navegador com versão muito antiga, ou navegador completamente diferente dos habituais, ou por voz ou sistema operacional menos difundido.


Essas diferentes situações e características precisam ser levadas em conta pelos criadores de conteúdo durante a concepção de uma página.

Para ser realmente potencializador da acessibilidade, cada projeto de página deve proporcionar respostas simultâneas a vários grupos de incapacidade ou deficiência e, por extensão, ao universo de usuários da web.

Os autores de páginas em HTML obtêm um maior domínio sobre as páginas criadas, por exemplo, com a utilização e divisão de folhas de estilo para controle de tipos de letra, e eliminação do elemento FONT.

Assim, além de torná-las mais acessíveis a pessoas com problemas de visão, reduzem seu tempo de transferência, em benefício da totalidade dos usuários.

FONTE: http://www.acessobrasil.org.br/index.php?itemid=45

Iniciativas de Acessibilidade

Bom pessoal,

Tomei a iniciativa de publicar este POST, pq gosto do tema que envolve o desenvolvimento de software, especialmente páginas web que utilizem acessibilidade. Então resolvi postar uma série de links que auxiliam na avaliação e servem como guia para garantir a acessibilidae do site.

Portal de ferramentas de avaliação e de auxilio para acessilidade em sites, contém links para as principais iniciativas voltadas para o apoio e utilização de acessibilidade em sites
http://www.acessobrasil.org.br/

Avaliador de acessibilidade páginas e-gov e outras.. avaliando padrões da páginas e elementos que facilitem a utilização dos sites por portadores de deficiência
http://www.dasilva.org.br/

Manual para acessibilidade, material muito interessante, com recomendações e links para melhoria e implantação de acessibilidade por meio de padrões
http://www.serpro.gov.br/acessibilidade/


Dúvidas estou a disposição... Vamos lá... vamos discutir

Apresentação de Slides da PETIC SSP

Nova Versão do PETIC

Nova Versão do Petic
Petic Ssp 2010 2012
View more documents from diego.aju.
Governo do Tocantins visita Sergipe para conhecer sistemas tecnológicos gerenciais da Sefaz
Extraído de: Secretaria da Fazenda do Estado de Sergipe - 25 de Março de 2009

Os mecanismos e tecnologias de gerenciamento dos processos, utilizados pela Secretaria de Estado da Fazenda de Sergipe (Sefaz), têm sido referência nacional em gestão pública e tributária. O reconhecimento vem também das constantes visitas técnicas feitas por representantes de secretarias fazendárias de outros Estados da Federação com o intuito de conhecer e adaptar à realidade local. A visita mais recente foi de representantes do governo do Estado do Tocantins, que estiveram na Sefaz com o objetivo de conhecer os sistemas e processos utilizados na área tributária, os mecanismos e tecnologias para a implementação do Projeto de Modernização Tributária consolidados pelo governo do Estado de Sergipe, assim como conhecer o planejamento fiscal, metas e metodologias de gestão por resultados. O interesse maior pelos técnicos do Tocantins foram principalmente pelo Sistema de Informação do Contribuinte (SIC), Sistema de Declarações de Informações do Contribuinte (SDIC), Sistema de Arrecadação Estadual (SAE), Sistema de Informações de Trânsito (SIT), Sistema de Acompanhamento de Processos (SAP), Sistema de Auditoria Fiscal (SAF), Sistema de Atendimento ao Governo (SAC) e pelo Sistema de Informações Gerenciais (SIG). A Secretaria da Fazenda de Sergipe tornou-se referência nacional e internacional com reconhecimento inclusive do PID graças à eficiente prestação de serviço aos cidadãos sergipanos, pela implementação de sistemas tecnológicos gerenciais eficazes, aplicação adequada de recursos - alguns dos quais efetivados através de parcerias firmadas pelo Estado com instituições internacionais, a exemplo do Banco Interamericano de Desenvolvimento, a prestação e aprovação de contas junto ao Tribunal de Contas da União e aos próprios organismos internacionais. Técnicos do Maranhão Na última sexta-feira, a Sefaz-Sergipe recebeu um grupo de trabalho da Secretaria da Fazenda do Maranhão, que buscou informações sobre o Sistema de Valor Adicionado, mecanismo de repartição de impostos destinados aos municípios que se processa através da Declaração de Informação de Contribuinte (DIC), uma ferramenta de informação para o valor adicionado fiscal. Diferentemente de quase todos os Estados, a repartição do valor adicionado fiscal em Sergipe é processada em parceria com o Tribunal de Contas do Estado, segundo determina a legislação estadual.

Perguntas

Pessoal,

Façam nos comentários daqui suas perguntas para o nosso grupo.

sexta-feira, 3 de julho de 2009

SSP : Governo investe em tecnologia para reforçar segurança na Grande Aracaju


O Governo do Estado empregou cerca de R$ 8 milhões para conceber uma das maiores ferramentas tecnológicas na área da Segurança Pública em Sergipe. O Centro Integrado de Operações Policiais (Ciosp), denominado novo 190, vai mudar a realidade na prestação do atendimento de urgência da Polícia Militar e Corpo de Bombeiros e ainda na contabilização de estatísticas por parte da Polícia Civil. O atual sistema de emergência da PM foi inaugurado no ano de 1990 para atender as demandas da época. Após 19 anos, a ferramenta estava defasada e precisava passar por uma completa reestruturação como a que o Governo de Sergipe está fazendo. A inauguração do Ciosp acontece na próxima quinta-feira, dia 2.

De acordo com a tenente-coronel Dielle Viana, diretora da tecnologia da informação da Secretaria da Segurança Pública (SSP), o antigo 190 recebia, até pouco tempo, cerca de cinco mil ligações diariamente, mas a capacidade de atendimento era de apenas 30% dessas chamadas. Hoje o novo serviço recebe 7 mil, com folga, já que o atendimento é feito quase sempre no primeiro toque. “Claro que vai gerar uma demanda extra nas ruas, mas teremos como fazer o registro e agilizar o atendimento pois, além dos recursos tecnológicos, o Ciosp é composto por fases que possibilitam o melhor desempenho dos serviços de emergência”, comentou.

O novo 190 deverá ser inaugurado nos primeiros dias de abril pelo governador Marcelo Déda e o ministro da Justiça, Tarso Genro, para promover uma maior integração e monitoramento entre as polícias Militar, Civil e Técnica, e o Corpo de Bombeiros. O Centro organizará todas as chamadas para uma mesma central telefônica, redirecionando as ligações para os números de emergência das instituições.

O moderno sistema é o mesmo que foi utilizado em 2007 durante a realização dos Jogos Pan-americanos do Rio de Janeiro e abriga no antigo prédio do Departamento Estadual de Infra-Estrutura Rodoviária de Sergipe (DER), localizado na avenida São Paulo, bairro José Conrado de Araújo, equipes das polícias Militar, Civil e Técnica, além do Corpo de Bombeiros. Durante 24 horas, eles operarão os novos e modernos equipamentos, cuja função vai agilizar o atendimento e diminuir o tempo-resposta às ocorrências.

Para atender as chamadas da população, 88 funcionários de uma empresa contratada pelo Estado foram treinados por profissionais do Corpo de Bombeiros e das Polícias Militar, Civil e Técnica. Assim que o sistema for inaugurado, o cidadão que discar 190 ou 193 terá sua chamada encaminhada a uma central especialmente preparada para o atendimento de emergências, ou seja, o próprio sistema vai redirecionar a pessoa para o serviço que ela deseja.

Além do Ciosp, o Complexo de Tecnologia da Informação (CTI) vai abrigar a Diretoria de Tecnologia da Informação (DTI), responsável pela área de informática da SSP, de todas as polícias e do Corpo de Bombeiros. Outra inovação do CTI é o Centro de Estatística e Análise Criminal (CEAC), que será responsável pela base de dados que vai mapear os crimes na região metropolitana de Aracaju.

Monitoramento por câmeras

Junto com o Ciosp, Aracaju vai receber 16 câmeras na área do centro comercial de Aracaju, cuja atuação vai complementar os trabalhos das forças policiais nas ruas da capital. O secretário de Estado da Segurança Pública, Kércio Pinto, assinou um contrato com a Empresa baiana Flashnet – que atua no campo de telecomunicações e engenharia – para prestação dos serviços de instalação de câmeras de vídeo no centro comercial de Aracaju, no âmbito do Programa de Monitoramento Eletrônico Digital Urbano. As câmeras serão fixadas e vão cobrir toda a área que vai da Rua Itabaianinha até a Avenida Ivo do Prado e da Praça do Mercado Albano Franco até a Praça Fausto Cardoso, na esquina com a Rua Pacatuba.

O Projeto do Centro Comercial compreende a primeira das cinco etapas que compõem o Programa e demandou um investimento de mais de R$ 1 milhão. De acordo com Kércio Pinto, a iniciativa vai maximizar o trabalho ostensivo e de investigação da polícia.

“O centro comercial estará sendo monitorado 24h pelos profissionais da segurança pública. As câmeras servirão como os olhos da polícia, identificando os suspeitos de crime com maior rapidez e direcionando o efetivo para o local mais exato possível. Trata-se de um projeto moderno e atualizado, que possibilita oferecer às forças policiais o uso de tecnologia de ponta. As outras quatro etapas do Programa serão voltadas para a Avenida Francisco Porto e os bairros Siqueira Campos, Jardins e Atalaia”, diz o secretário.

Cada câmera possui um zoom de 35x, sendo 25 de zoom óptico e 10 de digital, o que significa um alcance de aproximadamente um quilômetro. Segundo o assessor especial da SSP, Nelson Nascimento, as imagens serão captadas e transmitidas em tempo real, via ondas de rádio, para uma estação rádio-base e remetidas para o Centro de Monitoramento e Controle, instalado no prédio do Ciosp.



Fotos: Reinaldo Gasparoni/SSP






Fonte: http://www.ssp.se.gov.br/modules/news/article.php?storyid=3165

Viaturas da Polícia Militar recebem computadores com acesso à internet

Um veículo suspeito é parado em uma barreira montada pela Companhia de Polícia Rodoviária (CPRv). O motorista se identifica e os policiais recorrem ao computador da viatura para checar as informações. Em segundos, sua ficha completa é acessada, revelando que ele tem antecedentes criminais e um mandato de busca, emitido em Pernambuco. Imediatamente o motorista é detido e o carro, vasculhado.

A ocorrência é fictícia, mas a agilidade na resolução de determinados crimes é apenas um dos benefícios que o cidadão passou a ter a partir desta semana, com o funcionamento de seis mini modens OI-USB C120 em três viaturas do Batalhão de Polícia de Choque (BPChq), duas da Companhia de Polícia de Radiopatrulha (CPRp) e uma da CPRv. A entrega dos equipamentos foi realizada na sexta-feira, 21, pelo coronel Magno Silvestre, comandante geral da PM.

"A Polícia Militar dispõe de seis viaturas com computadores de bordo instalados. A partir deste momento, todas passam a acessar a internet, o que facilitará o trabalho dos policiais na rua. Teremos uma identificação imediata sobre pessoas e veículos abordados ou procurados. Com certeza o trabalho da corporação será otimizado", destaca o coronel Magno.


Foto: Reinaldo Gasparoni SSP



O mini modem é um dispositivo de comunicação móvel que conectará os policiais militares à internet com acesso a sites como o da Rede Infoseg, Tribunal de Justiça, Registro Nacional de Veículos Automotores (Renavam), e tantos outros que determinada ocorrência exigir na busca pelo reconhecimento de acusados e foragidos da justiça, por exemplo.

"A união entre tecnologia e operacionalidade facilitará o trabalho da tropa em todas as situações. Com isso, poderemos apresentar uma resposta mais eficiente à sociedade. Será um diferencial na prestação do serviço de segurança pública em Sergipe", afirmou o capitão Manoel Alves, subcomandante do Batalhão de Choque.

Para manter os pequenos equipamentos nas viaturas, a PM investe mensalmente R$ 70 em cada aparelho. Com isso, os policiais que estiverem de serviço e utilizarem tais viaturas poderão acessar os sites que forem úteis para obter informações cruciais em momentos de prisões e apreensões.

"A viatura da Companhia de Polícia Rodoviária que possui o computador de bordo atua no posto da cidade de Indiaroba, divisa de Sergipe com a Bahia. Esse é um ponto estratégico no combate ao crime, sobretudo para os policiais da CPRv que estão em constante mobilidade. Podemos identificar e confirmar se os condutores de determinado veículo são realmente os proprietários em uma consulta sentados na própria viatura", comentou o major Elias Linhares, comandante da CPRv.

O capitão Vitor Anderson de Moraes Santos, comandante da CPRp, afirma que certamente o número de prisões e apreensões devem aumentar, já que as consultas podem ser realizadas no momento exato em que a necessidade surgir. "Até para a segurança do policial militar o acesso à internet é importante, pois iremos abordar determinado veículo, por exemplo, já sabendo o que podemos encontrar. Pela placa do carro ou motocicleta, saberemos o histórico do veículo e a forma como deverá ser conduzida a abordagem. Outro avanço é que serão seis viaturas a menos ocupando os telefones do Centro de Operações Policiais Militares (Copom) na busca por informações que podem ser obtidas em tempo real", explicou o comandante da Radiopatrulha.

quinta-feira, 2 de julho de 2009

Preview do HTML 5

Site (em inglês) que explica o html 5
http://www.alistapart.com/articles/previewofhtml5

Exemplo de um html 5
http://www.youtube.com/html5?gl=BR&hl=pt

O ff 3.5 ja suporta o html 5
O IE 8 tbm
O Chrome e opera parece que somente 50%

HTML 5

O HTML (Hypertext Markup Language), que é responsável por organizar e formatar as páginas que visitamos na internet, está em sua versão 4.0.1 e continua evoluindo. No inicio de 2009 o WC3 - consórcio de empresas de tecnologia fundado por Tim Berners-Lee em 1994, para levar a Web ao seu máximo potencial, anuncia a primeira especificação do HTML 5. Após cinco anos de trabalho, esta, ainda, é apenas uma versão de testes do HTML 5 e a versão final está prometida para 2012. Foram feitas grandes alterações, que incluem: novas API’s, entre elas uma para desenvolvimento de gráficos bidimensionais, controle embutido de conteúdo multimídia, aprimoramento do uso off-line, melhoria na depuração de erros, entre outros avanços.

Esta evolução da linguagem padrão para web pode eliminar a necessidade de plug-ins para aplicações multimídia em navegadores. Diversos críticos consideram a tecnologia como um forte concorrente ao Flash do Adobe, Silverlight, da Microsoft, e o recente JavaFX, da Sun. Recentemente, Shantanu Narayen, diretor executivo do Adobe, disse que o Flash não irá perder mercado, porem a versão 5 do HTML já está sendo chamado de “Flash-killer”. Estas tecnologias precisarão se adaptar rapidamente para conseguir manter-se no mercado, tão popular quanto hoje. Na avaliação do co-diretor de ferramentas da Mozilla, Ben Galbraith, as tecnologias viabilizadas pelo HTML 5 como o Canvas para desenhos 2D e o armazenamento de conteúdos no desktop, permitirão que “usemos mais o browser do que nunca”.

Após dez anos sem atualizações, a forma como se escreve páginas na Internet finalmente passou por uma boa transformação. O HTML 5 oferece uma experiência web totalmente diferente para usuários e embora exista um longo caminho para ser finalizado, os navegadores mais importantes, como o Google Chrome, Safari 4, o novo Firefox 3.5 e o Internet Explorer 8 já implementaram partes da linguagem, incluindo tags de vídeo e suporte à tecnologia Canvas".

Com a evolução da linguagem, os navegadores passam da categoria “mostradores de páginas”. Na prática, coloca em risco a existência dos sistemas operacionais completos.


Bibliografia

Uma gestão transparente voltada ao interesse público

Hélio Santiago Ramos Júnior

Instituído por meio do Decreto nº 3.895, de 18/11/2004, o portal Gestão do Dinheiro Público do Governo do Paraná pode ser visto como um bom exemplo de transparência da gestão da máquina pública que mostra não apenas quanto está sendo gasto pelos órgãos públicos do Estado, mas também como estão sendo aplicadas suas receitas etc, trazendo detalhes que permitem a qualquer interessado fiscalizá-los a fim de identificar uma eventual ilegalidade ou irregularidade.

Isto é possível porque o portal permite, por exemplo, a consulta de pagamentos efetuados pelos órgãos públicos, indicando o nome da instituição pública, o credor e seu CNPJ, a data do pagamento, a quantia paga, a descrição do objeto e outros detalhes.

o artigo na integra você pode conferir em: http://egovbrasil.blogspot.com/2009/02/uma-gestao-transparente-voltada-ao_27.html

quarta-feira, 1 de julho de 2009

Licitação VERDE

Já dissemos e não comporta polêmica a afirmação de que a produção é consequência do consumo, daí porque os dois juntos, produção e consumo, formam a origem de toda a degradação do meio ambiente.

O consumidor, os órgãos públicos e privados, no ato da compra de qualquer produto, afetam, com maior ou menor impacto, a própria vida na terra; aquela simples aquisição de um imóvel, de alimento outro qualquer bem deixa de ser ação de interesse imediato e individual para se tornar uma escolha com responsabilidade social e política.

Os cuidados primários com a natureza podem significar golpe para os empresários gananciosos e descompromissados com o futuro da vida humana no planeta; as sadias providências ambientais contribuem para evitar a destruição das matas e das águas, a poluição desenfreada do ar que respiramos, e confere às gerações futuras vida saudável.

Licitação é o procedimento administrativo no qual a Administração Pública convoca, através de edital, empresas para apresentarem propostas para aquisição de produtos ou serviços; obriga-se o Estado a contratar somente quem reúne condições para atendimento do interesse público, considerando capacidade técnica do licitante, qualidade e valor do produto. É exigência constitucional para oferecer oportunidade a todos e vantagens ao poder público.

Sustentáveis são produtos ou serviços que se mostram como eficientes, incluindo aspectos ambientais, a exemplo dos bens que se servem de menos recursos naturais: a água e energia; materiais menos tóxicos; recicláveis; com maior vida útil e geram menos resíduos.

As licitações sustentáveis não estão regulamentadas pela Lei n. 8.666, nem por outra norma qualquer, mas mostra-se possível exigências de proteção à natureza, na aquisição do produto ou serviço, pela sua discriminação.

O Estado possui grande poder de compra, daí porque necessária a conscientização das autoridades para incrementar este tipo de cuidado com o ambiente.

A Consumers International, entidade reconhecida como a voz dos movimentos de consumidores de todo o mundo, conceituou consumo sustentável como sendo a opção por aquele produto que deve "satisfazer as necessidades e aspirações da geração atual sem comprometer a capacidade das gerações futuras".

A certificação com o selo verde inserido em certos produtos presta-se para situar os limites ecológicos da terra e mostra que são fabricados ou construídos em obediência às normas legais, causando menor impacto ambiental na produção e consumo.

O consumo verde, o prédio verde, a licitação verde retratam a preocupação de todo o povo com o processo acelerado de destruição do planeta. Até mesmo as edificações submetem-se à construção sustentável, através do selo conferido pela Leadership in Energy & Environmental Design (Leed).

O Centro de Computação Eletrônica fornece o selo verde para as empresas que se preocupam com a preservação do ambiente, evitando o uso de substância tóxica na fabricação de equipamentos.

A Universidade de São Paulo inseriu o selo verde nas suas licitações para compra de computadores e outros produtos. Enquanto não consta a exigência no edital, por falta de empresas com condições de atendimento, usa-se a recomendação para adquirir máquinas livres de chumbo, com componentes recicláveis e com baixo consumo de energia.

No I Fórum de Contratações Públicas, realizado em Brasília, no ano passado, enfrentou-se essa polêmica questão, consistente na criação de padrões de consumo sustentáveis na Administração Pública.

O Judiciário começa a enveredar pelo caminho verde que implica em certas medidas, como a limitação do uso do papel. O STJ e alguns tribunais de justiça dos estados já decretaram o fim do papel, através, do Diário de Justiça Eletrônico ou da economia no uso de frente e verso do papel para impressão; o recarregamento do toner, mensagens via e-mail, o uso de ferramentas de gerenciamento de energia, os escritórios virtuais, o home Office via VPN, a audioconferência, a desnecessidade da presença física diária do profissional no local de trabalho, a diminuição das viagens são outras providências que contribuem para minorar danos ao meio ambiente.

Fonte: http://www.ibrajus.org.br/revista/artigo.asp?idArtigo=104

Planejamento Estratégico: Por que, como, quando e quem deve fazer?

Por que fazer um planejamento estratégico?
O objetivo do planejamento estratégico é definir um posicionamento estratégico que crie e/ou fortaleça a vantagem competitiva da empresa e estabelecer ações estratégicas para tornar este posicionamento realidade.

O que é o Planejamento Estratégico?
O planejamento estratégico é o processo através do qual a organização se mobiliza para formular as suas estratégias, orientadas para o mercado, estabelecer e desdobrar metas e elaborar planos de ação para atingi-las, considerando os ambientes interno, externo, atual e futuro.

Existe a época mais adequada para a elaboração do PE?
Não existe uma época, porém a ocorrência de alguns fatos ou até mesmo a possibilidade de ocorrência deles tais como: acirramento da concorrência, mudança no comportamento do mercado, pressão de fornecedores, chegada de novos entrantes, possibilidade de produtos substitutos, perda de margem ou de participação de mercado, exigem que a empresa repense seu futuro. Entretanto, empresas que adotam o planejamento estratégico periodicamente acabam praticando a gestão estratégica. Isto é, implementam metodologias de desdobramento dos objetivos e metas estratégicas como, exemplo destas metodologias podemos citar o Balanced Scorecard (BSC) e Gerenciamento pelas Diretrizes (GPD), adotam uma sistemática contínua de avaliação dos resultados e adoção de medidas corretivas. A utilização de softwares, conforme o “Stratec Gestão Estratégica”, que inclusive é utilizado pela Fundação Unimed, facilita muito a implementação desta sistemática garantindo assim, o alcance das metas estabelecidas.

Há instituições em que o planejamento seja mais fácil ou mais difícil?
A facilidade ou a dificuldade de realizar o planejamento estratégico de uma organização muitas vezes está ligada à dinâmica do setor no qual ela atua. Alguns setores são de tecnologia intensiva outros, nem tanto, alguns a concorrência é muito acirrada outros menos, alguns dependem de conhecimentos específicos outros não. Enfim, o setor de atuação da empresa e os cenários nos quais este setor está inserido podem definir o grau de dificuldade para se definir um posicionamento estratégico que diferencie a empresa.

Quais são as vantagens para quem adota o PE?
As empresas que adotam a gestão estratégica estão continuamente reavaliando suas estratégias para criar valor para a organização e desenvolvendo nas pessoas que ocupam função gerencial o pensamento estratégico. O pensamento estratégico é o processo de pensamento que se dá na mente das pessoas-chave da organização que as ajuda a determinar a aparência da organização em determinado momento futuro. Este processo, que contribui sobremaneira para elevar o nível da função gerencial, pode por si só constituir uma vantagem competitiva importante para uma organização.

O PE pode ser revisado? Com qual freqüência?
O posicionamento estratégico geralmente é construído num período de tempo maior 2 a 3 anos ou até mais. Porém, conforme dito anteriormente a prática do planejamento estratégico deve evoluir para a gestão estratégica e, sendo assim, a avaliação das metas e ações estratégicas deve se dar pelo menos uma vez a cada trimestre.

Quem deve fazer um PE?
Qualquer organização para construir seu sucesso futuro deve fazer uso da metodologia de planejamento estratégico, não importa se é uma organização pública, privada, ou do terceiro setor ou pequena, média ou grande. Esta prática deve ser utilizada porque o futuro é construído. Abrir mão do planejamento estratégico é o mesmo terceirizar o seu futuro. Sua organização será parte do planejamento de alguém. Abrir mão do planejamento estratégico é o mesmo que optarmos para sermos vítimas das circunstâncias.

Fonte: http://www.effetiva.com.br/novo/index.php?option=com_content&view=article&id=59:planejamento-estrategico-por-que-como-quando-e-quem-deve-fazer&catid=3:artigos-diversos

Processo de Implementação do Balanced Scorecard

Para a definição do processo do Balanced Scorecard (BSC) utiliza-se a ferramenta de Mapa Estratégico. O mapa estratégico é uma ferramenta que serve como base para a priorização de recursos, também explicita relações de causa e efeito entre ações individuais e resultados para a empresa (muitas vezes esclarecendo como ativos intangíveis geram valor tangível), e permite que sejam realizados testes de hipóteses.

Mapa Estratégico do Balanced Scorecard

Figura 23 – Processo do Balanced Scorecard para a Southwest Airlines
Fonte: KAPLAN e NORTON, 1997.

No caso do mapa estratégico apresentado na Figura 23 acima, este representa toda a estratégia da Southwest Airlines, no mercado de aviação norte-americano. A Southwest foi a empresa pioneira em utilizar a estratégia que a Gol Linhas Aéreas utilizou no Brasil, de baixo custo na operação, e aumen

to do volume de viagens.
Assim, ao analisar o mapa estratégico da empresa, pode-se visualizar claramente como que o alinhamento do pessoal de terra (aspecto intangível), pode levar ao aumento de clientes (maior receita) e menos aviões (menor custos), ambos resultados tangíveis.
No processo de implementação do BSC, o mapa estratégico acaba se tornando uma excelente ferramenta para tornar claros os objetivos e as estratégias da organização, para todos os envolvidos no processo.

Fonte: http://www.administracaoegestao.com.br/planejamento-estrategico/processo-de-implementacao-do-balanced-scorecard/

Livros Criptografia e Segurança

Criptografia e Segurança de Redes

Clique Aqui para Ver a Imagem Ampliada

Guia definitivo sobre o assunto, "Criptografia e Segurança de Redes", 4º edição, apresenta a teoria, a prática e os princípios para o desenvolvimento de sistemas que visam a segurança de computadores e redes, bem como das informações armazenadas e que trafegam nesses meios.
Seguindo o estilo didático característico de William Stallings, o livro inicialmente traz, em detalhes, conceitos e padrões criados e utilizados para a criptografia, tais como cifras, assinaturas digitais e criptografia de chaves pública e simétrica. Em seguida, aborda a parte prática da segurança de redes, apresentando os recursos de última geração para a segurança de autenticação, IP e Web. Por fim, discute os desafios da segurança de sistemas, explicando como se dão e como evitar os mais comuns e danosos ataques da atualidade.
Uma ampla gama de recursos e informações disponíveis on-line, no site exclusivo do livro, complementa a obra, indispensável para professores e estudantes de segurança de redes e criptografia, nos cursos de ciência da computação, e para qualquer profissional que queira se destacar no mercado de trabalho.

Criptografia em Software e Hardware

Clique Aqui para Ver a Imagem Ampliada

Este livro apresenta conceitos de segurança e detalhes de implementação dos principais algoritmos criptográficos, tanto em software quanto em hardware, e discute as vantagens e desvantagens relativas à sua utilização. Descreve o funcionamento dos mais importantes algoritmos de criptografia, sem aprofundar conceitos matemáticos. Relaciona os benefícios de se implementar esses algoritmos em hardware, utilizando FPGAs (nova tecnologia para projetar sistemas digitais baseada no conceito de circuitos programáveis). Para facilitar o entendimento do projeto dos algoritmos em hardware, introduz os conceitos básicos da linguagem VHDL, muito utilizada em sistemas digitais para descrever o comportamento de circuitos e componentes digitais.

Livro Criptografia e Segurança - O Guia Oficial RSA


* Autor: Steve Burnett e Stephen Paine
* Publicação: 04 / 2002
* Editora: Campus / Elsevier
* ISBN: 8535210091
* Páginas: 392
* Idioma: Português


A criptografia é uma das maneiras mais inteligentes de proteger as informações numa rede e reduzir brechas de segurança e ataques de hackers. Pelo fato de o processo de implementação da criptografia ser complexo, são necessários conselhos práticos e técnicas testadas que poderão ser encontradas neste guia oficial.

Escrito por dois funcionários da RSA Security, esta obra de referência para especialistas explica as diferenças entre a criptografia de chave simétrica e a de chave pública; como o PKI e o X.509 afetam a segurança; e muito mais.

Disponibiliza também estudos atuais de casos que detalham os diferentes tipos de vulnerabilidades relacionados à segurança e quais tipos de aplicativos de criptografia podem prevenir os ataques.

Este livro mostra como:

* Distinguir os diferentes tipos de criptografia de algoritmos de chave simétrica e onde cada um deles é mais bem utilizado
* Descobrir como funcionam as senhas baseadas em criptografia
* Comunicar-se de maneira segura por canais inseguros usando a tecnologia de chave pública
* Usar a tecnologia de chave pública para a autenticação e não-repúdio
* Reconhecer como as empresas usam a criptografia para aprimorar a segurança por meio de estudos de casos práticos
* Obter detalhes sobre os atuais padrões e tecnologia PKI — incluindo informações sobre fornecedores
* Compreender os certificados X.509 e as estruturas de diretório
* Obter uma visão geral operacional dos protocolos mais comumente usados — incluindo IPSec, SSL e SET

terça-feira, 30 de junho de 2009

WEB 2.0 - Somente isso...


















Clique na imagem para visualizar melhor (dependendo da conexão pode demorar um pouco)

Entenda o que é a Web 2.0

O termo Web 2.0 é utilizado para descrever a segunda geração da World Wide Web --tendência que reforça o conceito de troca de informações e colaboração dos internautas com sites e serviços virtuais. A idéia é que o ambiente on-line se torne mais dinâmico e que os usuários colaborem para a organização de conteúdo.

Dentro deste contexto se encaixa a enciclopédia Wikipedia, cujas informações são disponibilizadas e editadas pelos próprios internautas.

Também entra nesta definição a oferta de diversos serviços on-line, todos interligados, como oferecido pelo Windows Live. Esta página da Microsoft, ainda em versão de testes, integra ferramenta de busca, de e-mail, comunicador instantâneo e programas de segurança, entre outros.

Muitos consideram toda a divulgação em torno da Web 2.0 um golpe de marketing. Como o universo digital sempre apresentou interatividade, o reforço desta característica seria um movimento natural e, por isso, não daria à tendência o título de "a segunda geração". Polêmicas à parte, o número de sites e serviços que exploram esta tendência vem crescendo e ganhando cada vez mais adeptos.

Confira um glossário da Web 2.0 elaborado pela Folha de S.Paulo

AdSense: Um plano de publicidade do Google que ajuda criadores de sites, entre os quais blogs, a ganhar dinheiro com seu trabalho. Tornou-se a mais importante fonte de receita para as empresas Web 2.0. Ao lado dos resultados de busca, o Google oferece anúncios relevantes para o conteúdo de um site, gerando receita para o site a cada vez que o anúncio for clicado

Ajax: Um pacote amplo de tecnologias usado a fim de criar aplicativos interativos para a web. A Microsoft foi uma das primeiras empresas a explorar a tecnologia, mas a adoção da técnica pelo Google, para serviços como mapas on-line, mais recente e entusiástica, é que fez do Ajax (abreviação de "JavaScript e XML assíncrono") uma das ferramentas mais quentes entre os criadores de sites e serviços na web

Blogs: De baixo custo para publicação na web disponível para milhões de usuários, os blogs estão entre as primeiras ferramentas de Web 2.0 a serem usadas amplamente

Mash-ups: Serviços criados pela combinação de dois diferentes aplicativos para a internet. Por exemplo, misturar um site de mapas on-line com um serviço de anúncios de imóveis para apresentar um recurso unificado de localização de casas que estão à venda

RSS: Abreviação de "really simple syndication" [distribuição realmente simples], é uma maneira de distribuir informação por meio da internet que se tornou uma poderosa combinação de tecnologias "pull" --com as quais o usuário da web solicita as informações que deseja-- e tecnologias "push" --com as quais informações são enviadas a um usuário automaticamente. O visitante de um site que funcione com RSS pode solicitar que as atualizações lhe sejam enviadas (processo conhecido como "assinando um feed"). O presidente do conselho da Microsoft, Bill Gates, classificou o sistema RSS como uma tecnologia essencial 18 meses atrás, e determinou que fosse incluída no software produzido por seu grupo

Tagging [rotulação]: Uma versão Web 2.0 das listas de sites preferidos, oferecendo aos usuários uma maneira de vincular palavras-chaves a palavras ou imagens que consideram interessantes na internet, ajudando a categorizá-las e a facilitar sua obtenção por outros usuários. O efeito colaborativo de muitos milhares de usuários é um dos pontos centrais de sites como o del.icio.us e o flickr.com. O uso on-line de tagging é classificado também como "folksonomy", já que cria uma distribuição classificada, ou taxonomia, de conteúdo na web, reforçando sua utilidade

Wikis: Páginas comunitárias na internet que podem ser alteradas por todos os usuários que têm direitos de acesso. Usadas na internet pública, essas páginas comunitárias geraram fenômenos como a Wikipedia, que é uma enciclopédia on-line escrita por leitores. Usadas em empresas, as wikis estão se tornando uma maneira fácil de trocar idéias para um grupo de trabalhadores envolvido em um projeto.

Fonte: Folha Online

Virtualização: vantagens em tempos de crise

A virtualização de servidores e desktops vem ganhando força rapidamente. O que até não muitos anos atrás, era uma tecnologia pouco utilizada pelas empresas, é considerada, hoje, uma grande tendência mundial. O Brasil não fica de fora. Existe uma expectativa de grande adesão local.

Venho acompanhando de perto este mercado e percebo que além das diversas vantagens proporcionadas, o aumento da demanda por virtualização ganhou um grande impulso com a crise econômica mundial. A turbulência financeira tende, cada vez mais, a impulsionar esses projetos, já que eles permitem facilidade de gestão e a implementação de novos sistemas, sem o pesado investimento em hardware, etc..

De acordo com pesquisas do Gartner, o faturamento mundial com software de virtualização devem crescer 43% já em 2009, saltando de US$ 1,9 bilhão, para US$ 2,7 bilhões. Em relação a 2008, o crescimento do mercado global de virtualização pode chegar a 20%, este ano. Já as vendas de desktops virtualizados devem mais que triplicar, aumentando de US$ 74,1 milhões, em 2008, para US$ 1,1 bilhão neste ano.

Motivadas pela possibilidade de reduzir custos com componentes de rede, energia e refrigeração, as empresas acabam encontrando na virtualização, benefícios que vão muito além disso. Diversas empresas consideram o maior atrativo, a possibilidade de poder fazer tarefas mais rapidamente, já que essa tecnologia permite a otimização de processos, ao dispor alta confiabilidade, consolidação, desempenho, escalabilidade e simplificação do ambiente. Nos dias de hoje, em que a concorrência é acirrada e que tempo vale dinheiro, aumentar a produtividade pode fazer toda a diferença.

Outra grande vantagem, é a adesão aos requisitos da tão comentada e factual, TI Verde. Virtualizar servidores e desktops atendem às políticas de responsabilidade ambiental, reduzindo drasticamente o consumo de energia elétrica em cerca de 30% a 40%, e a consequente emissão de carbono para a atmosfera. De acordo com alguns simuladores de TI Verde disponíveis na web, um ambiente formado por 200 servidores, 100% virtuais, faz a emissão de CO2 na atmosfera cair cerca de 150%.

Mais do que uma tecnologia da atualidade, a virtualização é uma ferramenta imprescindível para quem quer ampliar vantagem competitiva e aumentar a produtividade, mantendo o foco nas atividades principais de negócio.

Virtualização transforma ambiente de negócios e amplia vantagens competitivas

Fonte: http://imasters.uol.com.br/artigo/12770/tendencias/virtualizacao_transforma_ambiente_de_negocios_e_amplia_vantagens_competitivas/

Muitos gestores de TI estão familiarizados com as vantagens que a virtualização de servidores e desktops oferece. Reconhecem a virtualização, inclusive, como uma espécie de precursora da nuvem computacional (cloud computing), em que é possível acessar remotamente pastas, programas, e-mails etc. Ou seja, quem ainda não entendeu o quanto a virtualização transforma o ambiente de negócios é melhor se apressar.

O gerente de TI costuma se questionar constantemente sobre a performance e a funcionalidade dos recursos tecnológicos de que dispõe na empresa. Ele sabe que há sempre novidades capazes não só de suportar as operações rotineiras, mas de resultar em vantagem competitiva frente à concorrência. No caso da virtualização, os equipamentos físicos passam a se comportar como software, possibilitando relevante corte de custos e redirecionamento de recursos humanos para áreas mais estratégicas da empresa.

O fato de a virtualização separar os componentes - e favorecer a mobilidade das tecnologias entre plataformas inseridas na mesma infraestrurura - permite que se faça mais por menos. É o objetivo de quase toda empresa hoje em dia. Já as vantagens da virtualização dos desktops são ainda mais claras, à medida que os equipamentos constituem o mais alto investimento do ambiente de TI.

Conheça as oito principais vantagens da virtualização.

  1. Cada usuário tem seu próprio ambiente de trabalho, podendo instalar ou deletar aplicações quando e se necessário;
  2. Todo ambiente pode ser customizado com diferentes aplicações sem comprometer os demais usuários;
  3. Mesmo aplicações que não podem ser compartilhadas por diversos usuários têm condições de ser instaladas;
  4. Capacidade de acessar desktops remotamente e com segurança;
  5. Acesso seguro e rápido a periféricos como impressoras e scanners;
  6. Maior economia no espaço de armazenamento, nos custos gerais de data center, no resfriamento e no espaço físico;
  7. Interação mais ágil com o mercado, permitindo apresentar produtos, seviços e projetos com mais rapidez;
  8. Possibilidade de fazer backup regularmente e restaurar dados em poucos instantes.

Inovação tecnológica terá linha de crédito com juro de 1% ao ano

Cartão BNDES para Inovação financiará projetos de empresas com prazo de até quatro anos para pagar. Negócios terão apoio de centros tecnológicos do Sistema S da indústria, como o Senai Dentro de duas semanas estará no mercado, à disposição das empresas que faturam até R$ 60 milhões anuais, o Cartão BNDES para Inovação , que vai financiar a contratação de serviços relativos à inovação tecnológica. Com juro de 1% ao ano e pagamento em até quatro anos, o cartão chega em uma boa hora, avalia o assessor Marcos Vinicius de Souza, da Secretaria de Tecnologia Industrial, ligada ao Ministério do Desenvolvimento, Indústria e Comércio Exterior. "Sustentabilidade deixa de ser uma ação de responsabilidade social para ser uma medida estratégica", ilustra Marcos Vinicius.

O cartão foi projetado nos mesmos moldes do atual cartão BNDES para micro e pequenas empresas, porém, nesse caso, para financiar a contratação de serviços de inovação. Dentro dessa nova formatação, os centros de tecnologia, o Sistema S (Sesc, Senac, Senai e Sesi) e o Sistema Brasileiro de Tecnologia (Sibratec), ligado ao Ministério da Ciência e Tecnologia, ajudarão a gerenciar o interesse das empresas interessadas em tomar recursos para inovação.

O pagamento poderá ser feito em até 48 parcelas pré-fixadas, através do Banco do Brasil, Bradesco e Caixa Econômica. "Estamos desburocratizando o processo e facilitando o acesso aos recursos", diz, acrescentando que não será necessária a aprovação de um projeto de inovação para as companhias. Souza disse ainda que o Cartão BNDES para Inovação não vai competir com nenhuma linha da Financiadora de Estudos e Projetos (Finep) e nem do próprio Banco Nacional de Desenvolvimento Econômico (BNDES).

O anúncio foi feito durante a IX Conferência Anpei de Inovação Tecnológica , promovida em Porto Alegre, até esta quarta-feira (10/06), pela Associação Nacional de Pesquisa & Desenvolvimento das Empresas Inovadoras. Na oportunidade, Marcos Vinicius também anunciou o fim da Secretaria de Tecnologia Industrial e sua substituição, nos próximos 30 dias, pela Secretaria de Inovação Tecnológica.

Para o vice-presidente da Associação Nacional de Pesquisa e Desenvolvimento das Empresas Inovadoras (Anpei), Carlos Calmanovici, a notícia é animadora porque há projetos inovadores no Brasil que merecem ser incentivados.

Ainda durante a IX Conferência Anpei, outro destaque foi a participação do diretor-fundador da Zeri Foundation, Gunter Pauli. Ele defendeu a necessidade de que a economia seja dirigida por inovação, combinando ciência com a necessidade social.

"A sustentabilidade é a capacidade de responder às necessidades de todos os seres existentes no planeta, mas hoje não funciona assim, já que são gastos cerca de US$ 1 trilhão para se desfazer do lixo oriundos da indústria, hospitais, agricultura, mineração e outros setores", disse. "Poderíamos usar esse montante para eliminar a fome no mundo e minimizar outros problemas sociais", completou.

(Fonte: Jornal do Comércio do RS e Agência Sebrae de Notícias)
http://www.sedetec.se.gov.br/modules/news/article.php?storyid=555

Virtualização é MASSA!

Na Pyxis Tecnologia trabalhamos com virtualização há pelo menos 5 anos e foi a solução para os nossos problemas de contingência e indisponibilidade de servidores. Trabalhamos com cerca de 10 servidores, sendo 8 virtualizados. Os sistemas operacionais são os mais variados possíveis, desde o linux, passando pelo Windows Server 2003 até o Windows Server 2008.

Relato encontrado na WEB:
Fonte: http://damasio.wordpress.com/2008/04/24/funcionamento-vantagens-e-desvantagens/

Que a virtualização pode permitir que você execute softwares incompatíveis com seu sistema operacional, você já viram; que ela também permite que sistemas operacionais distintos operem sobre um mesmo conjunto de hardware, isoladamente, vocês também já viram.

Mas como isso é possível? Então eu posso criar inifinitas máquinas virtuais sobre uma única máquina física sem ter perda de performance? Nada disso! Vamos por partes..

Para que seja possível esse acesso indireto ao hardware por um ambiente virtual é preciso que se tenha instalado um software gerenciador de máquinas virtuais, como o Xen, o VMware, entre outros.

É sobre esse tipo de software que o sistema operacional da máquina virtual é instalado. Portanto, é ele quem funciona como um middleware e faz todo esse intermédio entre o ambiente virtual e o hardware..

Entretanto, devemos nos atentar às limitações de hardware da virtualização, pois o processamento, a capacidade de armazenamento da memória virtual e o espaço em disco da máquina são compartilhados pelos ambientes virtuais, e sendo assim, o hardware pode se tornar o gargalo da virtualização.

Não podemos simplesmente criar quantas máquinas virtuais quisermos e não termos perda de performance significativo. Devemos dosar o compartilhamento com cautela..

Faladas algumas das limitações da virtualização, vejamos agora algumas das muitas vantagens que essa solução nos proporciona. Dentre as tantas, podemos citar:

- Segurança: as VM’s (virtual machines) são isoladas e independentes umas das outras

- Redução de custos: necessita-se de menos hardware (menos dispositivos físicos, como computadores, switches etc.) para gerenciar uma rede

- Redução do consumo de energia: devido a redução na quantidade de dispositivos

- Melhor aproveitamento do espaço físico: com menos máquinas a necessidade de espaço diminui

- Melhor aproveitamento do hardware: com o compartilhamento de hardware entre as VM’s numa mesma máquina, reduz-se a ociosidade do mesmo

- Possibilidade de simular redes de computadores com menor demanda de hardware

- Possibilidade de utilizar de SO’s (sistemas operacionais) que não possuam compatibilidade com o hardware sobre o mesmo:caso o software gerenciador de máquinas virtuais seja compatível com esse hardware e possibilite a emulação do mesmo para um SO incompatível

- Facilidade ao migrar ambientes: evita reinstalação e reconfiguração dos sistemas a serem migrados

- Utilização de uma VM como ambiente de desenvolvimento:possibilita testes em SO’s distintos e, por prover um ambiente isolado, evita que falhas na configuração e/ou execução, ou até mesmo vírus, danifiquem o hardware da máquina

.
Dentre todas essas vantagens, podemos destacar segurança e redução de custo e espaço. Essas características são cada vez mais procuradas no mercado..

Portanto, vemos que o conceito de virtualização pode ser algo muito interessante de se aprender e implantar, até porque o mercado vem aderindo cada vez mais a essa solução, que tem muito o que evoluir.

SSP : Governo de Buenos Aires estuda tecnologias implantadas pela Segurança Pública de Sergipe

Matéria Completa disponível em

http://www.ssp.se.gov.br/modules/news/article.php?storyid=3338

GE cria material que armazena 500 GB em disco do tamanho de um DVD

Por Computerworld/EUA
Publicada em 28 de abril de 2009 às 08h27
Atualizada em 28 de abril de 2009 às 08h35
Framingham - Novo material ‘micro-holográfico’ levará à capacidade de armazenar mais de 1 TeraByte de dados em um único disco.

A GE desenvolveu um material que permitirá o armazenamento de 500 GB em um disco holográfico do tamanho de um DVD, anunciou a fabricante nesta segunda-feira (27/04).

O material de armazenamento ‘micro-holográfico’ da GE armazena o equivalente a 20 Blu-rays ou 100 DVDs.

A fabricante planeja oferecer os discos comercialmente em 2012. Eles poderão ser lidos em sistemas similares a um player comum, que também lerá CDs, DVDs e Blu-rays. A nova tecnologia é diferente dos outros discos ópticos apenas na capacidade de armazenamento.

“O dia em que você poderá armazenar sua coleção completa de filmes em alta definição em um único disco, com suporte a formatos de televisão 3D, por exemplo, está mais perto do que você pensa”, afirma o responsável pelo programa de Armazenamento Holográfico da GE, Brian Lawrence.

Esta inovação levará à capacidade de armazenar mais de 1 TB (TeraByte) de dados em um único disco.

Lucas Mearian, editor do Computerworld, de Framingham
Copyright 2009 Now!Digital Business Ltda. Todos os direitos reservados.
Fonte: (http://idgnow.uol.com.br/computacao_corporativa/2009/04/27/ge-cria-material-que-armazena-500-gb-em-disco-do-tamanho-de-um-dvd)

Prefeitura de SP instala chip de RFID em carros

Fonte: (http://idgnow.uol.com.br/computacao_corporativa/2005/09/28/idgnoticia.2006-03-12.6516655364)
Por Daniela Braun - IDG Now!
Publicada em 28 de setembro de 2005 às 12h58
Etiqueta com chip instalada em 500 veículos da capital medirá velocidade do trânsito entre Av. Rebouças, Nove de Julho, Paulista e marginal Pinheiros.

Nos próximos dias, a Secretaria Municipal de Transportes (SMT) da Prefeitura Municipal de São Paulo começa a testar um sistema de identificação de veículos pela tecnologia RFID (Radio Frequency Identification), que fornecerá informações mais precisas sobre o trânsito na cidade.

Os testes serão realizados durante seis meses no quadrilátero nas avenidas Rebouças, Nove de Julho, Paulista e marginal Pinheiros envolvendo 500 veículos - ônibus e carros de voluntários da prefeitura, informa Helder Lima, coordenador de comunicação da SMT.

No quadrilátero, antenas de captação de dados em RFID poderão identificar e localizar cada veículo por meio de uma etiqueta inteligente - do tamanho de um cartão magnético - colada no vidro dianteiro do carro.

Por meio do microchip presente na etiqueta, as informações coletadas pelas antenas serão enviadas a uma central de operação que será localizado na CET (Companhia de Engenharia de Tráfego).

A tecnologia permitirá que a CET detecte a velocidade média dos veículos no quadrilátero onde os congestionamentos são constantes. Outra possibilidade é ajudar a localizar o ônibus durante o trajeto do coletivo.

A localização do sistema ainda deve ser definida. Segundo Lima, a central pode ser instalada nas dependências da CET na Rua Bela Cintra, região central da cidade, ou na Rua Sumidouro com a marginal Pinheiros, na zona Oeste.

Os testes serão realizados gratuitamente pela empresa CCBR (Catel Construções do Brasil), que fornece tecnologia ao sistema Sem Parar de cobrança eletrônica de pedágio e ofereceu o projeto à prefeitura.

"O que pretendemos é fazer um laboratório e conhecer a tecnologia em questão para sabermos quais contribuições poderá dar à necessidade cada vez maior de monitoramento no trânsito e transporte", comenta Lima.

Mercado

O mercado global de RFID cresceu 35% em 2004, movimentando mais de 1,5 bilhão de dólares, segundo a empresa de pesquisas VDC (Venture Development Corporation). O VDC acredita que a tecnologia deva crescer a taxas médias anuais de 43% até 2007.

Para o mercado de varejo, a tecnologia representa a evolução do código de barras. Entre os grandes incentivadores desta migração está a rede norte-americana Wal-Mart e o Departamento de Defesa dos Estados Unidos.

Em Janeiro deste ano, o Wal-Mart solicitou a seus 100 maiores fornecedores a aplicação de etiquetas com chip RFID em todos os produtos distribuídos para sua rede de lojas, nos Estados Unidos.

História

O Radio Frequency Identification (RFID) é um método de coletar e armazenar dados usando dispositivos chamados etiquetas inteligentes ou transponders (chips transmissores de sinal)

As etiquetas de RFID, que podem ser afixadas em produtos, veículos, animais ou pessoas, contém microchips e antenas que se comunicam com antenas de captação de dados via radiofreqüência.

Sistemas de transmissão de dados similares ao RFID tem sido trabalhados desde a década de 20. Em 1939, na Segunda Guerra Mundial, os ingleses criaram um sistema parecido, o IFF (Identification, Friend or Foe) para identificar aeronaves aliadas ou inimidas. Efetivamente, o RFID mesmo começou a tomar forma no final dos anos 60.

Copyright 2008 Now!Digital Business Ltda. Todos os direitos reservados.

Computação Ubíqua

Para entendermos melhor sobre Computação Ubíqua, excelente apresentação

Novas Tecnologias de Informação



Outsourcing: Companhias apostam na terceirização total de TI

Fonte:(http://idgnow.uol.com.br/computacao_corporativa/999/12/31/outsourcing-companhias-apostam-na-terceirizacao-total-de-ti)
Por CIO/Índia
Publicada em 18 de março de 2009 às 11h00
Atualizada em 20 de março de 2009 às 09h17
Bangalore - Modelo poupa investimentos em infraestrutura e garante mais agilidade e para tarefas estratégicas e menos operacionais.

A Índia Infoline, companhia de comércio online internacional, optou por um modelo de terceirização total de todas as suas aplicações e processos de TI. O motivo? "Precisamos de tempo para gerenciar questões voltadas ao negócio, mas sem perder a garantia da disponibilidade dos sistemas, dos dados e da segurança da informação", justifica Titus Cunaseelan, CTO da companhia.

Hoje, o provedor de serviços contratado por Gunaseelan seleciona, implementa e gerencia todos os serviços de TI da companhia e trata ainda das aplicações e dos processos de negócio.

Shirish Gariba, CIO de outra empresa indiana, a Elbee Express – que atua com logística e entrega de produtos em todo o mundo – conta que apostou na contratação de um fornecedor especializado no gerenciamento de dados para administrar todas as suas aplicações, ferramentas, mailings e data centers.

“Sou a única pessoa de TI na organização”, conta o executivo. “Procuro me concentrar em questões estratégicas e, por isso, o outsourcing mostra-se essencial para trazer produtividade à área. Com isso, além de poupar o tempo que eu gastaria com tarefas operacionais, posso economizar recursos que seriam gastos com pessoas e com energia elétrica”, justifica Gariba.

Casos como esses mostram que, embora o modelo de outsourcing gere certa insegurança para os executivos de TI - principalmente no que diz respeito ao tratamento e controle das informações armazenadas –, ele tem servido para direcionar uma das principais preocupações dos CIOS: reduzir custos fixos. Além disso, esse modelo pode trazer mais flexibilidade e agilidade para a equipe de tecnologia que, graças à terceirização, pode dedicar-se a tarefas mais estratégicas e menos operacionais.

O analista-sênior da Forrester Research, Bill Martorelli, monitora essa tendência de adoção do padrão de serviços hospedados em data centers externos. “A popularidade da terceirização de storage está aumentando significativamente por conta da crise econômica mundial”, afirma Martorelli.

Galen Schreck, também analista-sênior da Forrester Research, concorda com a afirmação do colega e compara o modelo de outsourcing à construção de um imóvel. “Se uma empresa precisasse urgentemente de mais espaço físico, construiria um edifício ou procuraria um prédio pronto, financiaria o pagamento e já efetuaria a mudança? A opção por um data center terceirizado parte do mesmo princípio”, informa Schreck.

Gunjan Trivedi, editor da CIO, da Índia
Copyright 2009 Now!Digital Business Ltda. Todos os direitos reservados.

Redução de custos é o maior motivador para investimentos em TI

Fonte:(http://idgnow.uol.com.br/computacao_corporativa/2009/04/30/reducao-de-custos-e-o-maior-motivador-para-investimentos-ti-diz-abes)
Por Rodrigo Afonso, repórter do COMPUTERWORLD
Publicada em 30 de abril de 2009 às 15h15
Atualizada em 04 de maio de 2009 às 15h30
São Paulo - Segundo estudo da IDC, 29% das empresas já fizeram cortes de custos em suas operações para aumentar eficiência.

Um estudo global realizado pela consultoria IDC sobre o fator determinante para a estratégia das organizações em 2009, indica que 39% das empresas investem em tecnologia com o objetivo de reduzir custos da organização.

>> Participe das discussões da CW Connect

Para 29% das empresas entrevistadas, a redução de custos já ocorreu e o principal motivador de suas estratégias foi o aperfeiçoamento da eficiência e a previsibilidade sobre o mercado. Outras 27% das companhias investem para crescer em suas operações e as demais 5% querem diminuir o tempo de resposta ao mercado.

O estudo aponta ainda que a indústria da tecnologia da informação passa por uma transformação que aumentará o foco das companhias em mercados emergentes, no fornecimento de soluções empacotadas, em projetos de curto prazo.

“A renegociação de contratos é outra característica da transformação, fato que dará muito trabalho para as empresas que vendem software. É necessário repensar a estratégia para esse cenário”, afirma José Curcelli, presidente da Abes (Associação Brasileira das Empresas de Software), que encomendou a pesquisa.

Com orçamento reduzido em relação a 2008, algumas tendências apontadas para este ano ficarão ainda mais aceleradas, como virtualização, voz sobre IP, consolidação, ferramentas de gerenciamento, maior negociação com fornecedores, terceirização e aprimoramento da estratégia de outsourcing.

“O foco nas pequenas e médias empresas deve ser outra constante, já que elas serão as maiores consumidoras de tecnologia durante o período de retração econômica. O faturamento de TI nesse segmento depende, no entanto, do acesso a financiamento e das políticas para as companhias desse porte”, diz Curcelli.

As tecnologias que tornam verde a TI

Quando chega a hora de aplicar de verdade a TI verde, alguns produtos e serviços põem a estratégia em prática: CPUs multicore, virtualização, consolidação de servidores e documentos online.

Fazer uma pesquisa no Google gera 7 gramas de CO2 na atmosfera. O mesmo que ferver um bule de chá. O cálculo feito pelo físico americano Alex Wissner-Gross, da Universidade de Harvard, claro, é contestado pelo Google. A empresa retruca dizendo que cada consulta gera 0,2 g de CO2. A polêmica fica ainda maior por envolver a gigante da busca, e dá uma boa idéia da importância prática da TI verde.

Além da face institucional, como cofundadora da Iniciativa de Computação dos Salvadores do Clima, o Google usa muita virtualização e consolidação de servidores para usar menos máquinas que em outro modelo de computação – que inviabilizaria o modelo de negócios da empresa. Assim mesmo, os data centers do Google geram toneladas de CO2, assim como outras grandes indústrias.

O britânico David Powell, presidente para a América Latina da Software AG, sabe dos benefícios que a atitude ecologicamente correta traz. Parte da estrutura do edifício-sede da companhia, em Darmstadt (Alemanha), é de madeira. “Somos ecoamigáveis há 40 anos”, diz Powell. “E temos um programa contínuo de redução de servidores.”

Do ponto de vista do produtor de software, que no fim das contas gera os consumos de máquina e de energia, quanto mais eficientes os processos dos programas que movem os negócios de uma empresa, mais verde será a TI.

No fim da história é o CIO que colocará a estratégia verde em prática. A decisão será sobre tecnologias como: CPUs multicore, virtualização, consolidação de servidores e gerenciamento eletrônico de documentos.

Mais chips, menos máquinas

A carga de informações para processar aumenta exponencialmente e o poder computacional dos servidores tem que dar conta dessa demanda. Os processadores multicore são o motor dos servidores poderosos que cumprem essa tarefa.

Com mais núcleos de processamento em cada CPU, cada máquina é mais poderosa e um menor número de unidades será adquirida. O melhor desempenho das maquinas multicore também exige mais consumo de energia. Mas pense no seguinte detalhe: a concentração de poder de processamento acaba sendo melhor que um grande parque de máquinas para fazer a mesma tarefa.

Chip dualcore é pouco para esses servidores. O IBM Cell, por exemplo, chegou a nove núcleos. Os servidores hexacore são hoje o motor dos servidores mais poderosos hoje no mercado.

Virtualização faz servidor virar polivalente

Antigamente, o senso comum em TI era distribuir cada tarefa em um servidor. Um servidor de arquivos, um servidor do banco de dados, um servidor de email, um de internet etc. O problema é que cada uma ocupa um espaço diferente de memória, tem picos de uso durante em uma semana e ociosidade no resto do mês.

O desperdício de máquina acabou com a tecnologia de virtualização de servidores. Virtualizar é transportar cada um daqueles servidores para uma máquina só ou mesmo vários servidores, mas em menor número.

A carga dos servidores em cada máquina e o uso da conexão são gerenciadas por software, e busca sempre a distribuição mais racional e econômica.

Fonte: http://info.abril.com.br/ti-verde/as-tecnologias-que-tornam-verd.shtml

5 mitos sobre otimização de energia em data centers

Em um recente evento para CIOs (Chief Information Officers) e CFOs (Chief Financial Officers), entendi o motivo de tantos executivos fugirem dos temas relacionados à TI Verde. As empresas têm sido bombardeadas pelos fabricantes por uma avalanche de soluções ecologicamente corretas mas que, na maior parte do tempo, prometem benefícios enganosos e totalmente sem sentido.

Este cenário é boa parte dos problemas que as organizações enfrentam hoje em relação à TI Verde. Apesar de todas as inovações para tornar os data centers mais eficientes – do ponto de vista energético –, as boas ideias são apagadas pelo discurso das áreas de marketing e vendas dos fornecedores de tecnologia da informação.

Tenho esperanças, no entanto, que os executivos responsáveis pelos data centers entendam que melhorar a PUE (Power Usage Efficiency ou, em português, a eficiência no uso energético) representa um caminho para acelerar o retorno sobre investimento nessas estruturas, reduzir custos e os estragos à natureza.

Para ajudar a entender o contexto, pense no que aconteceria se, de uma hora para outra, o combustível do seu veículo tivesse uma melhora de 35% em termos de eficiência (kilômetros por litro). Para isso, basta fazer um upgrade, que exige investimentos que se pagam no primeiro ano, graças à redução do consumo. Essa fórmula atrairia uma grande parte dos consumidores, certo? Porém, por que existe tão pouco interesse em aplicar esse mesmo conceito aos data centers?

Acredito que essa dificuldade deve-se ao fato de que é muito difícil prever com certeza quanto os investimentos em soluções verdes podem gerar de melhorias. Além disso, o mercado começa a se perguntar até que ponto a indústria não está tentando vender os mesmos velhos produtos, só que agora com uma abordagem ecológica.

Sem me aprofundar nas tecnologias utilizadas para redução de custos, seguem algumas dicas de que como os gestores de data center podem ir além dos discursos dos fornecedores na hora de avaliar se vale a pena investir em soluções verdes.

Antes de começar, vale só uma definição: no caso do data center, o PUE compara a energia necessária para operar os sistemas de TI e a infraestrutura de suporte – composta pela energia elétrica, umidificação e resfriamento do ambiente. Quanto mais baixo for esse índice, melhor, pois isso significa que a estrutura demanda menos watts para manter o funcionamento. A seguir, acompanhe os cinco mitos a respeito da economia de energia em data center e entenda como tomar melhor as decisões sobre o tema:

Mito 1 - O PUE é uma constante (vale para os 365 dias do ano)
Não. Esse índice pode variar ao longo das horas do dia e até de acordo com as estações do ano. Por exemplo, se o sistema prevê um aproveitamento do ar do meio ambiente para ajudar na refrigeração do data center, as empresas só poderão utilizar esse benefício nos dias em que a temperatura estiver mais baixa.

Por isso é importante determinar uma média de economia que pode ser gerada por uma solução de TI Verde ao longo de um ano e não só naquele momento que seria o ideal. Assim, quando o fornecedor promete que a tecnologia irá reduzir os gastos com energia, procure descobrir se a porcentagem apresentada não se refere apenas a um determinado cenário ou se ela diz respeito a uma média anual.

Mito 2 – Durante a construção e o desenho do data center, é possível otimizar o PUE
Nem sempre isso faz sentido, pois ao longo do ciclo de vida do data center os recursos vão mudar. Com isso, deve-se pensar que o desenho desse ambiente precisa ser flexível. Por exemplo, o gasto enérgico do data center vai mudar com o tempo e com a própria demanda por energia e refrigeração. Assim, se construir um ambiente para uma capacidade ideal, vai gastar mais dinheiro nos primeiros anos, com o intuito de suprir as necessidades de refrigeração e backup do que necessita.

Mito 3 – Recursos enérgicos alternativos melhoram o PUE
Falso. Se alguém disser que energias alternativas tendem a melhorar o PUE do seu data center, questione como isso pode incrementar a eficiência energética do ambiente. O que, eu garanto, não vai ter resposta.
Não estou dizendo que energias renováveis são ruins. Elas simplesmente não impactam no PUE. E, algumas vezes, nada representam em termos de economia de dinheiro também.

Mito 4 – Não dá para melhorar o PUE para os equipamentos em uso
Isso também é falso. Existem coisas que podem ser feitas para reduzir a energia necessária para suprir a capacidade de processamento e de refrigeração do data center – sem ter de mudar todos os equipamentos. Qualquer coisa que reduza a geração de calor no ambiente ou que aumente o resfriamento pode melhorar o PUE. Isso significa que não seja necessário trocar os equipamentos.

Mito 5 – A virtualização melhora o PUE
Isso é parcialmente verdade. A virtualização de servidores e de armazenamento pode reduzir o número de sistemas necessários para suportar o ambiente e, por consequência, isso diminui o consumo de energia.

Mas, mais uma vez, isso, por si só, não melhora o PUE. Se o data center está operando com 10% de sua capacidade, simplesmente reduzir um emissor de calor pode diminuir a necessidade do sistema de resfriamento em um nível que afete o PUE. No entanto, em ambientes que operam perto de 80% da capacidade máxima o mesmo não deve acontecer.

Fonte: http://computerworld.uol.com.br/gestao/2009/06/29/5-mitos-sobre-otimizacao-de-energia-em-data-centers/