Google
 

As Tops 10 tecnologias para 2010

Bookmark e Compartilhe

O Gartner coloca em destaque  as dez principais novas tecnologias e tendências que serão estratégicas para a maioria das organizações em 2010.

As tops 10 tecnologias  para 2010 são:

*Cloud Computing - é um estilo de computação que caracteriza um modelo no qual os fornecedores entregam aos consumidores uma série de serviços baseados em nuvem que podem ser explorados de diversas formas para desenvolver uma aplicação ou uma solução. Utilizar os recursos da Cloud não elimina os custos das soluções de TI, mas os reorganiza e, em alguns casos, os reduz. Além disso, ao consumirem serviços em nuvem, as empresas vão cada vez mais fornecer aplicações, informações ou processos de negócios aos clientes e parceiros comerciais.

*Análises Avançadas - A otimização e a simulação estão utilizando ferramentas e modelos analíticos para maximizar os processos de negócio e a eficácia das decisões por meio da análise de resultados e cenários alternativos antes, durante e depois da implementação e execução do processo. Isto pode ser visto como um terceiro passo no suporte a decisões de negócios operacionais. Regras fixas e políticas pré-definidas renderam-se a decisões impulsionadas por informações corretas fornecidas no momento correto, seja por meio da gestão do relacionamento com clientes (CRM), do planejamento de recursos empresariais (ERP) ou de outras aplicações. Esse novo passo deve fornecer simulação, previsão, otimização e outros recursos analíticos, e não apenas informações, permitindo maior flexibilidade de decisões em cada ação do processo de negócio. O novo passo olha para o futuro, prevendo o que pode ou vai acontecer.

*Client Computing - A virtualização está criando novas formas de empacotar aplicações e capacidades de client computing. Como resultado, a escolha de uma determinada plataforma de hardware de PC e, consequentemente, a plataforma do sistema operacional, torna-se menos crítica. As organizações deveriam estabelecer, proativamente, um roadmap estratégico de cinco a oito anos para client computing, definindo uma abordagem para os padrões de dispositivos, propriedade e suporte; seleção, implementação e atualização do sistema operacional e da aplicação; e planos de gerenciamento e segurança para administrar a diversidade.

*TI Verde - TI pode viabilizar muitas "iniciativas verdes". As comuns são o uso de e-documents (documentos eletrônicos) e a redução de viagens ao se utilizar teleworking (trabalho por videoconferência). A TI também fornece ferramentas analíticas que a organização pode implementar para reduzir o consumo de energia no transporte de mercadorias ou em outras atividades de gestão das emissões de carbono.

*Remodelagem do Data Center - No passado, planejar princípios para os data centers era simples: descubra o que a empresa tem, estime o crescimento para 15 a 20 anos e, então, faça a construção adequada. Os custos serão realmente menores se as organizações adotarem uma abordagem pod-based, método de engenharia de estrutura, para a construção e expansão dos data centers. Cortar despesas operacionais, que são uma parte não trivial das despesas gerais de TI para a maioria dos clientes, libera recursos para serem aplicados em outros projetos ou investimentos em TI ou no próprio negócio.

*Computação Social (Social Computing) - Os trabalhadores não querem dois ambientes distintos para suportar seu trabalho - um para seus próprios produtos de trabalho (sejam pessoais ou em grupo) e outro para acessar informações "externas". As organizações devem focar no uso de software social e de mídia social na organização e na participação e integração com comunidades externas patrocinadas pela empresa e públicas. Não ignore a função do perfil social de reunir as comunidades.

*Segurança - Monitoramento de Atividades - Tradicionalmente, o foco da segurança tem sido estabelecer um muro perimetral para manter os outros de fora, mas ela evoluiu para monitorar atividades e identificar padrões que foram esquecidos anteriormente. Os profissionais de segurança da informação enfrentam o desafio de detectar atividades maliciosas em um fluxo constante de eventos distintos que normalmente estão associados a um usuário autorizado e são gerados a partir de múltiplas redes, sistemas e fontes de aplicações. Ao mesmo tempo, os departamentos de segurança estão enfrentando uma demanda crescente por análises de logs sempre maiores e precisam fornecer relatórios que suportem as exigências da auditoria. Uma série de ferramentas de monitoramento e análise complementares (e que algumas vezes se sobrepõem) ajuda as organizações a detectar e investigar melhor as atividades suspeitas - frequentemente com alertas em tempo real ou intervenção nas transações. Ao perceberem os pontos fortes e fracos dessas ferramentas, as organizações entenderão melhor como usá-las para defender a organização e atender às exigências de auditoria.

*Memória Flash - A memória flash não é algo novo, mas está se movendo para um novo nível no plano de storage. A memória flash é um dispositivo semicondutor de memória, familiar por seu uso em pendrives e cartões de câmeras digitais. É muito mais rápida do que os discos giratórios, mas consideravelmente mais cara; porém, este diferencial está acabando. Na velocidade com que os preços declinam, essa tecnologia vai obter uma taxa composta de crescimento anual acima de 100% durante os próximos anos e se tornar estratégica em muitas áreas de TI, incluindo dispositivos de consumo, equipamentos de entretenimento e outros sistemas de TI incorporados. Além disso, ela oferece uma nova camada na hierarquia de storage em servidores e computadores clientes, oferecendo vantagens chave, incluindo espaço, aquecimento, performance e robustez.

*Virtualização para disponibilidade - A virtualização tem estado na lista das principais tecnologias estratégicas nos anos anteriores e está na relação deste ano porque o Gartner enfatiza novos elementos, como a migração dinâmica para disponibilidade, que tem implicações no longo prazo. A migração dinâmica é o movimento da execução de uma máquina virtual, enquanto seu sistema operacional e outros softwares continuam sendo executados como se estivessem no servidor físico original. Isto ocorre por meio da replicação do estado da memória física entre as máquinas virtuais fonte e de destino; assim, em determinado instante, uma instrução termina a execução na máquina de origem e a próxima instrução é iniciada na máquina de destino. Porém, se a replicação da memória continuar indefinidamente, mas a execução das instruções permanecer na VM de origem e a VM de origem falhar, a nova instrução ocorrerá na máquina de destino. Caso a VM de destino venha a falhar, basta selecionar um novo destino para iniciar a migração indefinida, obtendo-se assim a maior disponibilidade possível. O principal valor dessa proposição é deslocar uma série de mecanismos distintos com um simples "dial" que pode ser configurado para qualquer nível de disponibilidade a partir da base de tolerância a falhas, todos usando um mecanismo em comum e permitindo que as configurações sejam alteradas tão rapidamente quanto for preciso.

*Aplicações Móveis - Até o final de 2010, 1,2 bilhão de pessoas carregará consigo dispositivos capazes de realizar transações comerciais móveis, proporcionando um ambiente rico para a convergência da mobilidade e da web. Já há algumas milhares de aplicações para plataformas como Apple iPhone, apesar do mercado limitado e da necessidade de uma codificação única. Isto pode levar a uma nova versão que seja projetada para operar de forma flexível tanto nos PCs quanto nos sistemas em miniatura; mas se a interface do sistema operacional e a arquitetura do processador forem idênticas, o agente capacitador criaria uma grande mudança, impulsionando a disponibilidade das aplicações móveis para um nível superior.

Ouça o texto

0 comentarios:

Imprimir
Related Posts with Thumbnails