Gestão de custos faz sentido? Por Leonardo Matt

Se até em alguns órgãos da administração pública a otimização de custos já passa a ser discutido, certamente nas organizações da iniciativa privada o assunto é mais do que pertinente.

A Pesquisa CIO Global 2016-2017, realizada pela consultoria Deloitte em 48 países, mostra que os CIOs (Chief Information Officers) brasileiros estão mais preocupados com a gestão de custos. Segundo o estudo, este foi o tema a ser priorizado por executivos no contexto local, com 60% das referências,

No Brasil, a situação econômica momentânea com certeza acentua o foco no controle dos custos. E o assunto não gira unicamente em torno do corte dos custos, mas sim do controle e gerenciamento.
Mas o que contempla essa ação? A rigor é simples: a questão é adequar os custos aos níveis comportados pela receita e a avaliação da real necessidade do desembolso, sempre tomando o devido cuidado para não comprometer atividades vitais e sujeitar a organização a prejuízos decorrentes de algum corte feito de maneira inadvertida ou irresponsável.

E se a pergunta for “por onde começar”. Traçar metas ou estabelecer um orçamento pode ser uma boa prática, para gerar indicadores de gestão que permitam um bom acompanhamento, lembrando da máxima de que quem nao mede nao gerencia. De qualquer forma, é imprescindível conhecer os custos, seu comportamento (quais estao crescendo e quais nao) e, principalmente, quais são os mais representativos, para poder iniciar a gestão pelos mais relevantes.

Instrumentos para isso: um balancete, sem duvida, é uma bela e (via de regra) confiável fonte de informação, mas com pouca flexibilidade para filtrar dados ou fazer análises comparativas. Levar dados para planilha eletrônica, pode ser outro recurso e que dá uma certa flexibilidade no processo de análise, mas é trabalhoso e às vezes vulnerável. O instrumento ideal, para a organização que possui um sistema de gestão operacional implantado, é a adoção de um software de BI (Business Intelligence) que pode ajudar sob vários aspectos, como:

1) Representação gráfica dos indicadores. Se dizem que um gráfico fala mais que mil relatórios, por que não fazer uso de gráficos para acompanhar os indicadores, as evoluções etc. ?

2) Utilização de recursos dinâmicos de filtragem e “mergulho” (aprofundamento) nos dados, para entender a origem dos dados e buscar “insights” em torno de alternativas a algo que não está adequado.

3) Identificação de riscos ou anomalias a serem alertados de forma proativa ao(s) gestor(es) responsável(is) pelas possíveis providências.

Enfim, a recomendação do uso de um software de BI tem a intenção de assegurar uma boa gestão e controle dos custos, custos esses, que existem, são necessários e inevitáveis em toda organização. Por conseguinte, seu controle e acompanhamento contínuo faz todo o sentido.

Leonardo R. M. Matt, CEO da BXBsoft

Gostou? Quer compartilhar?

Gestão Rápida da Informação ajuda Madero a aproveitar oportunidades para expansão

Redes alimentícias, franquias gastronômicas e food trucks despontam no ranking de setores imunes à baixa da economia, obviamente, alguns ajustes e adequações aos padrões de consumo dos brasileiros foram realizados, mas no geral, o segmento alimentação enfrenta a maior crise registrada na história da economia brasileira, sem muitos tropeços e contornando muito bem. É o que aponta dados coletados da ABF Franchising.

A rede Madero de restaurantes é um bom exemplo disso. Fundada no Paraná em 2005, a rede dobrou de tamanho nos últimos dois anos, passando de 40 operações, em 2014, para mais de 80 unidades neste ano, espalhadas em diversas cidades do país, nos Estados de Santa Catarina, Rio Grande do Sul, Paraná, São Paulo, Goiás, Bahia, Mato Grosso, Mato Grosso do Sul, Espírito Santo e Rio de Janeiro, Minas Gerais, além do Distrito Federal e de um restaurante em Miami (EUA).

Segundo o diretor de Tecnologia do Madero, Murillo Proença, o uso de ferramentas que aceleram a coleta, tabulação e leitura de dados operacionais e de resultados é o segredo para uma gestão segura das informações da empresa, que auxilia o board a tomar decisões estratégicas, especialmente quando o assunto é expansão e investimentos.

Uma das ferramentas usadas pelo Madero para isso é o Business Intelligence (BI), da Qlik, produto distribuído no Brasil pela Toccato, única com o título Elite Master Reseller. O sistema foi implementado em março passado pela Target Soluções Integradas, que atua no Sul do Brasil. “Com essa ferramenta, não atiramos no escuro, pois ela nos oferece visão total do desempenho da empresa, que nos assegura 100% de certeza em qualquer ação comercial”, destaca Proença.

Ainda segundo o diretor de TI, o que mais chama a atenção é a velocidade das análises versus o grande volume de dados. Eles fazem uso de um software de gestão empresarial (ERP) e o BI da Qlik atua em conjunto com a solução, que também age como um grande repositório de dados. “Antes do BI da Qlik, usávamos planilhas em Excel. Hoje, contamos com uma solução para cruzar informações em tempo real, nos apoiando em qualquer decisão. Nosso board está muito bem impressionado com a solução”, afirma.

“Especialmente o segmento de alimentação e redes de franquias demandam por decisões diárias pela velocidade de mudança ou novas possibilidades dentre hábitos de consumo de seus clientes. Por outro lado, este segmento também conta com uma base de informações incrementada diariamente com novos dados, permitindo um rico trabalho de análise para aumento dos resultados”, conclui o CEO da Toccato, Leonardo Farah.

Gostou? Quer compartilhar?

Era digital traz novo fôlego à economia

Por Allan Pires

Na semana passada tivemos mais cenas de choro em cadeia nacional e em horário nobre, principalmente discursos sobre injustiças cometidas contra importantes personagens políticos. Entretanto, não tivemos nenhuma consolação para quem depende da estabilidade do governo para poder trabalhar e converter esforço em renda.

A verdade é que o nosso atual cenário político se assemelha a uma novela mexicana que parece não ter fim e, infelizmente, está atraindo milhões de espectadores internacionais com a espetacularização política. E o que já é difícil para nós brasileiros compreendermos, fica ainda mais difícil para quem não está acostumado com os nossos mandos e desmandos e “voos de galinha”.

A cada contato que tenho com estrangeiros a mesma pergunta surge: “Eu não entendo o que se passa no Brasil, você poderia explicar?”. Eu já estava acostumado a esta pergunta quando tinha que apresentar nosso sistema tributário para um estrangeiro, o que não é tarefa nada fácil de fazer. E sempre ouvia a expressão “Mas isto não faz sentido”. Até já me acostumei com o termo.

Quem vive fora do Brasil acredita que o nosso país oferece oportunidades de crescimento e investimentos. Falo dos empreendedores, investidores, empresas com operações globais, parceiros estratégicos, fornecedores, etc. Pelo potencial de mercado interno, força de trabalho e recursos naturais, nós estaremos sempre no mapa das grandes operações globais.

Agora, as dúvidas estão em relação ao que iremos fazer para aumentar a competitividade, elemento importante para quem quer retomar o crescimento. Os olhos ainda estão voltados para o nosso mercado e o setor de Tecnologia da Informação continua crescendo a passos largos, impulsionado pela economia digital.

Um exemplo claro desse movimento está ligado ao futuro dos negócios digitais no Brasil, que gera em torno de 1,3 milhões de empregos, segundo a Associação Brasileira de Empresas de Tecnologia da Informação e Comunicação. Como os negócios estão cada vez mais se transformando em digitais, dois dos elementos-chave que propiciam a viabilidade, o aumento da produtividade e, logo, a competitividade das empresas brasileiras se referem à disponibilidade e custo no setor de telecomunicações, principalmente Internet, Data Center e Nuvem.

Os serviços de Data Center e Nuvem são considerados, junto com a ferramenta Analytics, as três prioridades de investimentos em tecnologia mundiais, de acordo com o Instituto Gartner. Pesquisa recente sugere uma forte reorientação das prioridades em relação aos negócios digitais e à necessidade de recuperar o atraso. Além disso, o relatório traz uma informação surpreendente: os CEOs estão mais direcionados aos negócios digitais que os próprios CIOs de empresas.

Com o mercado tomando um rumo digital, temos desafios para estimular novos investimentos locais e internacionais ou, ainda, a utilização destes serviços por provedores externos principalmente porque não definimos como ponto de partida que o acesso à internet deveria ser cada vez mais universal – há propostas para a limitação da capacidade ou velocidade da Internet – ou um modelo tributário claro que acelere o uso de Data Centers, gerando eficiência para as organizações. Vale ressaltar que há planos de novas ofertas e de novas bandas de frequência de transmissão em Países de primeiro mundo, forçando a redução do custo de internet fortemente.

Acredito que a digitalização da economia é a chave para recuperarmos o fôlego no Brasil. Entretanto, a capa da revista The Economist com o Cristo Redentor ilustra muito bem o looping que estamos vivendo. Não só pela economia, mas também pela instabilidade gerada pelas (não) decisões que deveriam ser tomadas e lideradas pelo governo. Vários empreendimentos digitais estão postergando seus investimentos em nosso país, adiando, assim, oportunidades para toda a cadeia produtiva, o que levaria também novas oportunidades de emprego para uma massa significativa de pessoas.

Pessoas estas que estão chorando sozinhas em seus lares porque seus choros e lamentos não são ouvidos por quem deveria pensar no futuro do nosso país. E não há muito nas comunicações oficiais dos Governos que mostrem que temos um caminho claro. Planos de recuperação econômica, que são comuns em países em recessão, parecem uma coisa muito distante por aqui.

Allan Pires é CEO da multinacional dinamarquesa Targit para a América Latina e Texas

Gostou? Quer compartilhar?

Gartner recomenda seis práticas para análise em tempo real

O Gartner, Inc., líder mundial em pesquisa e aconselhamento imparcial em tecnologia, reforça que a análise de dados em tempo real permite decisões mais rápidas, precisas e eficazes em comparação com decisões convencionais feitas com dados obsoletos ou sem dados. Análises em tempo real exigem um processo de decisão estruturado com uma lógica pré-definida, e os dados devem estar disponíveis imediatamente. A obtenção de dados é muitas vezes o fator limitante na velocidade de tomada de decisão.

Esse será um dos temas que serão apresentados durante a Conferência Business Intelligence, Analytics & Information Management 2016, que acontecerá nos dias 10 e 11 de maio (Terça e Quarta-feira), no Sheraton São Paulo WTC Hotel, em São Paulo. Para o Vice-Presidente e Analista Emérito do Gartner, W. Roy Schulte, o conceito de análise em tempo real historicamente foi aplicado principalmente às decisões operacionais. No entanto, na atualidade, com novas ferramentas analíticas e técnicas de baixo tempo de reação, a qualidade das decisões táticas e estratégicas também pode ser melhorada.

“Análises em tempo real podem permitir que as equipes de ciência de dados executem modelagens, simulações e otimizações com base em um conjunto completo de dados da transação e não apenas amostras”, afirma o analista do Gartner. “Os usuários finais podem aproveitar recursos analíticos cada vez mais sofisticados por meio de análises em tempo real incorporadas em ferramentas de descoberta de dados e em aplicações, sem que tenha tempo de espera proibitivo para processamento ou necessidade de intervenção de desenvolvedores.”

O analista do Gartner compartilha as seis melhores práticas para a tomada de decisões rápidas e em tempo real, sem abrir mão da qualidade das decisões:

Torne decisões operacionais lentas em decisões em tempo real – As decisões operacionais são, em sua maioria, estruturadas e repetidas com frequência. Decisões operacionais que mudam do modo lento para o tempo quase real podem exigir novas ferramentas de software, novos tipos de dados, novas opções de design de processos de negócios e, também, outras mudanças. O ponto de análise em tempo real é para responder às condições como estão no momento, não para processar dados antigos ou do mês anterior.

Acompanhe os resultados das decisões em tempo real e modifique regras e análises frequentemente – A maioria das decisões operacionais em tempo real são repetíveis. Por exemplo, um modelo de pontuação usado para aprovar transações de cartão de crédito pode ser desenvolvido uma vez em dados de históricos, e então ser usado para avaliar transações de cartão de crédito em tempo real por dias ou semanas. É importante monitorar os resultados para garantir que os modelos funcionem corretamente e, se necessário, modificar as regras e análises com frequência para obter os resultados corretos para a tomada de decisão rápida.

Use um sistema de “grades de proteção“ e supervisão humana para evitar erros em tempo real – “Os computadores não têm senso comum, então eles vão cometer erros – às vezes importantes e graves. A lógica do sistema deve ser utilizada para verificar outros sistemas, e as pessoas devem monitorá-los periodicamente”, afirma Schulte. Um botão “pare” deve ser incorporado, para que as pessoas possam fazer algo rapidamente quando for detectado um problema. Um sistema de proteção deve ser posto em prática, às vezes sob a forma de “disjuntores” que interrompam o processamento quando surge um problema.

Use a inteligência contínua para alertar sobre a situação – Sistemas contínuos de inteligência (monitoramento) operam todos os dias, acompanhando os eventos à medida que ocorrem, até que detectem uma ameaça ou uma oportunidade que requer uma resposta por uma pessoa ou sistema. O sistema de forma proativa envia um alerta ou outra notificação a uma pessoa via e-mail, pop-up ou outro mecanismo; ou ele dispara uma resposta automática.

Forneça vários modos de exibição personalizados, porém um quadro operacional comum – Use essa inteligência contínua para fornecer um quadro operacional comum em toda a empresa. Cada pessoa envolvida em uma situação pode ter uma visão específica para seu papel dentro da organização, porém, fornecer análises em tempo real para toda a organização garante que todos os envolvidos tenham o mesmo entendimento de uma situação.

Trabalhe a gestão de decisões como uma disciplina comparável à gestão de dados e à gestão dos processos de negócios – A “Gestão de Decisões” é o desenvolvimento da concepção e construção dos sistemas que tomem decisões, em que “decisão” significa determinar um curso de ação. Sistemas de tomada de decisão são implementados utilizando mecanismos de regras, ferramentas analíticas de software, programas 3GL ou mesmo tomadores de decisão humanos – pessoas são “sistemas de tomada de decisões” quando decidem seguindo conjuntos de regras totalmente definidos e estruturados.

Veja aqui pesquisa sobre dados e Analytics e o relatório sobre como levar sua estratégia de Analytics da visão para a realidade. Acompanhe as notícias, fotos e vídeos da Conferência Gartner Business Intelligence, Analytics & Information Management, nas mídias sociais usando #GartnerBI.

Conferência Business Intelligence, Analytics & Information Management

Data: 10 e 11 de maio de 2016 (Terça e Quarta-feira)
Local: Sheraton São Paulo WTC Hotel – Av. das Nações Unidas, nº 12.559
Site do evento: www.gartner.com/br/bi

Gostou? Quer compartilhar?

Intel apresenta novidades no primeiro dia do Intel Developer Forum

Durante o primeiro dia do IDF – Intel Developer Forum -, a Intel fez diversos anúncios, entre eles: detalhes para dispositivos vestíveis (wearables), a adoção da tecnologia Intel® EPID pela Microchip Technology* e pela Atmel* para ajudar as soluções de proteção da Internet das Coisas (IoT) e novidades em relação a tecnologia Intel® RealSense™ para mais plataformas e dispositivos.

Veja abaixo alguns dos principais anúncios:

Módulo Intel® Curie™

A Intel anunciou durante o Intel Developer Forum novos detalhes sobre o módulo Intel® Curie® para dispositivos vestíveis, bem como para produtos industriais e para consumidores. Os anúncios incluem uma nova plataforma de software da Intel criada especificamente para o módulo Intel Curie, novos designs de referência baseados no módulo e suporte para os Kits de Software Intel® IQ.

Sobre o Módulo Intel Curie

O módulo Intel® Curie™ é um minúsculo hardware que oferece grande flexibilidade de design. A completa solução de baixo consumo vem com capacidades de processamento, sensores de movimento, Bluetooth de baixo consumo, carregamento da bateria e cruzamento de padrões para análises otimizadas dos dados do sensor – habilitando a identificação rápida e fácil de ações e movimentos. O Intel Curie é produzido em um formato muito pequeno e roda uma nova plataforma de software criada especificamente para o módulo.

Saiba mais em:
http://newsroom.intel.com/community/pt_br/blog/2015/08/19/idf-2015-m%C3%B3dulo-intel-curie

Atmel e Microchip adotam tecnologia de identidade da Intel para a IoT

A Intel anunciou que a sua tecnologia de identidade Enhanced Privacy ID (Intel® EPID) está sendo adotada pela Microchip Technology* e pela Atmel* para ajudar a melhorar a interoperabilidade das soluções de proteção da Internet das Coisas (IoT). As empresas se unem ao ecossistema onde mais de 1,1 bilhão de certificados EPID foram criados.

Espera-se que a IoT se torne um mercado que movimente trilhões de dólares com uma base instalada de 50 bilhões de dispositivos conectados até o final de 2020, mas a indústria enfrenta desafios na implantação de soluções IoT devido a desafios de segurança, compatibilidade e complexidade da solução. Ao usar a Intel EPID como a base da segurança para toda a rede, o ecossistema pode habilitar diferentes soluções para conectar de forma mais segura uns aos outros e estimular a ampliação da escala da Internet das Coisas.

Saiba mais em:
http://newsroom.intel.com/community/pt_br/blog/2015/08/19/atmel-e-microchip-adotam-tecnologia-de-identidade-da-intel-para-a-iot

A tecnologia Intel® RealSense™ no Intel Developer Forum 2015

Durante seu discurso de abertura no Intel Developer Forum (IDF), o CEO Brian Krzanich falou como a “sensificação” da computação está surgindo como a próxima fronteira da inovação computacional. Ele revelou inúmeras atualizações da tecnologia Intel® RealSense™ que levarão a tecnologia de sensores de profundidade para mais plataformas e dispositivos. Krzanich também fez demonstrações ao vivo no palco para apresentar novas aplicações de hardware e software baseadas na tecnologia Intel RealSense.

Saiba mais em:
http://newsroom.intel.com/community/pt_br/blog/2015/08/19/a-tecnologia-intel-realsense-no-intel-developer-forum-2015

Gostou? Quer compartilhar?

Gartner afirma que as organizações estão mudando prioridades de Customer Experience

O Gartner Inc., líder mundial em pesquisa e aconselhamento sobre tecnologia, anuncia que as organizações mudaram suas prioridades de Customer Experience (CX) em 2015. Essas e outras informações serão apresentadas durante a Conferência Gartner Business Intelligence, Analytics & Information Management, que acontecerá nos dias 23 e 24 de junho (terça e quarta-feira), no Sheraton São Paulo WTC Hotel.
A pesquisa foi realizada em janeiro de 2015 com membros do Gartner Research Circle, composto por 289 líderes de TI e negócios, responsáveis por projetos de CX, familiarizados com o tema ou impactados por tais projetos.

“O estudo avalia quais projetos de CX foram realizados em 2014 e quais estão sendo trabalhados em 2015. Isso fornece uma excelente visão panorâmica de como as coisas estão mudando em CX. As descobertas ainda destacam o fato de que melhorias em Customer Experience são empreendimentos complexos. Não há fórmula mágica que, por si mesma, melhore a experiência como um todo. Mas a combinação de projetos, se bem implementada, pode contribuir de forma cumulativa para a melhoria das experiências dos clientes da organização”, afirma Nick Ingelbrecht, Diretor de Pesquisas do Gartner.

A pesquisa revelou que as organizações implantaram uma média de 5,7 projetos de CX durante 2014, com maior foco em programas de melhoria de coleta e análise de feedback dos clientes e “abertura” da organização. Quando apresentados com uma lista de 16 projetos de melhoria de CX conduzidos em 2014, os mais citados foram aqueles associados com a coleta e análise de feedback de clientes e ações de comunicação aos colaboradores e clientes (capturando a voz do cliente). Na sequência, foram citados os projetos de reestruturação do processo do cliente e, em terceiro lugar, estavam os de ativação de autosserviço e ferramentas para escolher, solicitar, rastrear e interromper aquisições de produtos.

Mais de um terço dos participantes da pesquisa disseram que seus projetos de melhoria de Customer Experience durante 2014 envolveram mudanças significativas em seus modelos de negócio. A maioria dessas transformações envolveram alterações em processos que giravam em torno da produção de produtos e dos serviços. Em um terço dos casos, as mudanças de modelo de negócio estavam relacionadas a modificações na forma de interação do cliente com a organização.

“Nem todas as mudanças de modelo de negócio têm o mesmo peso, mas parece haver um reconhecimento entre as organizações mais maduras de que os projetos de CX ampliam as fronteiras organizacionais e afetam principalmente a forma como a organização opera. Como resultado, o Gartner prevê que em 2018 mais de 50% das organizações implementarão mudanças significativas no modelo de negócio visando melhorar a experiência do cliente”, afirma Nick Ingelbrecht, Diretor de Pesquisas do Gartner.

Os participantes da pesquisa ainda forneceram uma perspectiva sobre seus planos para 2015 de projetos de melhoria de CX. As prioridades para este ano são projetos voltados para o aperfeiçoamento consistente através dos canais e atuação como “uma” organização unificada. Elevar a satisfação do cliente ainda é importante em 2015. “Há aqui, talvez, sinais de uma compreensão de que o CX é mais do que simplesmente a satisfação do cliente. É realmente necessário passar pelas recomendações boca-a-boca e proporcionar aos seus clientes existentes mais razões para continuarem recorrendo a você”, afirma Nick Ingelbrecht.

Os três melhores projetos planejados de CX para 2015 são de autosserviço, atividades de condução multicanal e, como em 2014, coleta e análise do feedback do cliente. A consistência de multicanais é o foco número 1 para 2015, em comparação com sua sétima posição na lista de projetos de 2014. Os projetos de voz do cliente, que estavam no topo do ranking em 2014, caíram para a terceira posição em 2015, enquanto o indicador de cliente permaneceu no mesmo lugar.

A Conferência Gartner Business Intelligence, Analytics & Information Management oferece para as empresas um direcionamento estratégico associado com a implementação, a estruturação e o aperfeiçoamento de programas de BI – Business Intelligence e de Business Analytics, analisando tendências e práticas de mercado. Mais informações estão disponíveis no site: gartner.com/br/bi. Para se inscrever, contate o Gartner pelo e-mail brasil.inscricoes@gartner.com, pelos telefones (11) 5632-3109 e 0800-744-1440, ou pelo site: http://www.gartner.com/br/bi.

Gostou? Quer compartilhar?

Gartner diz que organização bimodal requer Sourcing Adaptativo

Tema será tratado na Conferência Business Intelligence, Analytics & Information Management
O Gartner Inc., líder mundial em pesquisa e aconselhamento sobre tecnologia, informa que os procedimentos tradicionais de fornecimento utilizados pelas empresas não estão adequados ao nível de agilidade, velocidade e inovação que as organização bimodais precisam. Essas e outras informações serão apresentadas durante a Conferência Gartner Business Intelligence, Analytics & Information Management, que acontecerá nos dias 23 e 24 de junho (terça e quarta-feira), no Sheraton São Paulo WTC Hotel.

De acordo com o Gartner, a organização bimodal precisa adotar uma abordagem adaptativa de fornecimento em que as distintas necessidades de ambos os modos de TI sejam privilegiadas. Esse tipo de organização é aquele que possui dois modos de TI. O Modo 1 é o tradicional, enfatizando a segurança e a precisão. O Modo 2 é o não sequencial, priorizando agilidade e velocidade. Ambos são necessários e devem trabalhar em conjunto.

“Uma abordagem verdadeiramente bimodal para a gestão de TI exige que o sourcing reflita as diferentes necessidades dos dois modos”, afirma Ruby Jivan, Vice-presidente de Pesquisa do Gartner. “Em um processo controlado e coerente, esse sourcing deve entregar as soluções industrializadas de baixo custo que suportam o Modo 1, ao passo que permitem as necessidades mais dinâmicas, ágeis e exploratórias do Modo 2”, afirma o Vice-presidente.

As novas oportunidades e ameaças geradas pela economia digital estão forçando as organizações a se concentrarem em uma inovação rápida, flexível e de colaboração. Os CIOs precisam melhorar sua estratégia de sourcing para dar um impulso sustentável em direção à agilidade de TI da sua organização. Enquanto o sourcing tradicional pode restringir melhorias e inovações, o Sourcing Adaptativo pode trazer mais benefícios de agilidade.

Por meio da aplicação de uma abordagem adaptativa, os CIOs podem aplicar racionalmente diferentes regras de governança para os serviços de TI em cada área, independentemente de que a solicitação do serviço seja feita pelo centro de compras (por exemplo, TI, o diretor de marketing e o diretor digital).

Sourcing Bimodal e Adaptativo

O Sourcing Adaptativo usa um modelo de três etapas para garantir agilidade:

• Inovar.

Os serviços são adquiridos numa base ad hoc para atender aos requisitos de negócios ou oportunidades emergentes. Eles normalmente implicam um ciclo de vida curto e usam tecnologias departamentais, externas e voltadas ao consumidor.

• Diferenciar.

Serviços que permitem a melhoria contínua dos processos exclusivos da empresa e capacidades específicas do setor. Eles têm um ciclo de vida médio (um a três anos) e precisam de reconfiguração frequente para acomodar mudanças nas práticas de negócio e requisitos do cliente. Nesta camada, a reconfiguração e a melhoria contínua dos processos são os principais objetivos.

• Executar.

Serviços estabelecidos que suportam a entrega ininterrupta das demandas de TI, como o principal processamento de transações e master data management fundamental para processos corporativos e de todo o negócio. Normalmente, eles constituem de 50% a 70% do orçamento de TI e, sendo fundamental para a viabilidade do negócio, eles estão sujeitos aos controles mais altos em termos de segurança, conformidade e compatibilidade financeira e técnica, por exemplo. A eficiência do processo é o foco principal nesta camada. Porque a camada de Execução inclui o funcionamento e suporte dos sistemas de registro, inovação e diferenciação (assim que os dois últimos entrarem em produção), os requisitos de conformidade são muito específicos. Há, no entanto, uma necessidade de modernização do ambiente de produção para se preparar para as novas tecnologias digitais que formarão a base das camadas inovadoras e diferenciais.

“O Sourcing Adaptativo afeta as práticas operacionais em vários níveis, de modo que os CIOs que antecipam os efeitos são mais propensos a ter êxito. O sucesso do Sourcing Adaptativo está na agilidade do sourcing e na organização de gestão de fornecedores a adotarem práticas de gerenciamento robustas”, afirma Ruby Jivan, Vice-presidente de Pesquisa do Gartner.

A Conferência Gartner Business Intelligence, Analytics & Information Management oferece para as empresas um direcionamento estratégico associado com a implementação, a estruturação e o aperfeiçoamento de programas de BI – Business Intelligence e de Business Analytics, analisando tendências e práticas de mercado.

Mais informações estão disponíveis no site: gartner.com/br/bi. Para se inscrever, contate o Gartner pelo e-mail brasil.inscricoes@gartner.com, pelos telefones (11) 5632-3109 e 0800-744-1440, ou pelo site: http://www.gartner.com/br/bi.

Gostou? Quer compartilhar?

Consumidor ganha Procon em Números, sistema de informações para consultar empresas

O Procon-PR em Números é um case de Business Intelligence (BI) desenvolvido pela Secretaria da Justiça, Cidadania e Direitos Humanos e Companhia de Tecnologia da Informação e Comunicação do Paraná – Celepar. A plataforma de informações vai melhorar a relação entre consumidores e empresas ao disponibilizar informações atualizadas e as mais diversas análises a respeito das reclamações da população e do comportamento do fornecedor no mercado de consumo. “A população vai poder consultar se uma empresa tem algum tipo de reclamação antes de fazer uma compra. Depois, se já realizou a compra e teve problemas, também poderá saber se o fornecedor soluciona os casos”, disse Claudia Silvano, diretora Procon-PR.

Transparência

O sistema permite acompanhar diariamente reclamações da população, além do comportamento dos fornecedores de produtos e serviços. O sistema reúne todos os registros desde 2013. “Os próprios usuários dos serviços públicos vão usar a ferramenta para extrair os dados que precisam. Ela vai ajudar o cidadão nas suas escolhas em relação aos prestadores de serviços e com base nessa transparência é possível diminuir o número de reclamações e dar maior rapidez ao atendimento”, explica a secretária da Justiça, Cidadania e Direitos Humanos, Maria Tereza Uille Gomes.

Para o presidente da Celepar, Jacson Carvalho Leite, as soluções de tecnologia da informação e comunicação trazem agilidade e modernidade à gestão pública, além de medir a qualidade do serviço público prestado ao cidadão. “O BI é uma ferramenta eficaz e segura, ao mesmo tempo que disponibiliza dados à população, traz informações atualizadas em tempo real aos gestores públicos”.

Os dados ajudam na formulação de políticas públicas. No atendimento preferencial, 70.440 idosos procuraram o Procon desde 2013. Para atender o público desta faixa etária, o Procon, em parceria com a Escola de Educação em Direitos Humanos do Paraná, promoveu no ano passado duas palestras sobre direitos do consumidor para idosos, abordando os principais direitos do consumidor estabelecidos no Código de Defesa do Consumidor e outras legislações pertinentes, apresentando exemplos dos principais problemas de consumo.

Alguns dados disponíveis no Procon-PR em Números

De 2013 até agora, o Procon realizou 177.504 mil atendimentos.

As mulheres representaram 101.278 atendimentos (57,06%). Os homens representaram 76.224 (42,94%).

A maior procura está na faixa etária entre 31 e 40 anos.

No atendimento preferencial, 70.440 idosos procuraram o Procon neste período.

Acesso

Para acessar este serviço, basta clicar no banner Procon-PR em Números disponibilizado nos portais da SEJU (www.justica.pr.gov.br) e do Procon-PR (www.procon.pr.gov.br).

Fonte: Celepar

Gostou? Quer compartilhar?

Startup de Curitiba recebe US$ 100 mil do Google

A paranaense EngagED receberá aporte em créditos no valor de US$ 100 mil do Google. O recurso destinado à companhia de Curitiba que atua com tecnologia focada em educação virá através da rede Startup Grind e deve ser utilizado na Google Cloud Platform. Dentre as empresas que receberam o mesmo tipo incentivo da gigante de buscas figuram nomes Snapchat, Wix e Pulse.

Com a entrada do capital, a brasileira espera calibrar sua oferta de serviços recorrentes via processamento de dados na nuvem e business intelligence – e consequentemente, maior penetração e confiança com os clientes para novos modelos de receita. Além disso, pretende criar novos modelos e serviços sustentados por dados e modelos prescritos, que atenderão a necessidade dos alunos e das instituições, elevando a qualidade da educação.

A brasileira trabalha com soluções tecnológicas que visam a aproximar o aluno da instituição de ensino, gestores e educadores. De acordo com comunicado ao mercado, sua plataforma alunos, professores e colaboradores, até membros da sociedade e economia. “Sendo assim, seria possível ter um histórico geral de um aluno candidato a ingressar numa Universidade. Suas facilidades, dificuldades e interesses estariam registrados lá desde as primeiras experiências educacionais”, detalha, no documento.

Chegada ao Brasil

Fundado no ano de 2010, no Vale do Silício, o Startup Grind está presente em mais de 160 cidades em torno de 60 países, com uma comunidade global de em média 120 mil empreendedores e startups. Desde 2013, a iniciativa tem o apoio do Google for Entrepreneurs. No final do ano passado, as empresas firmaram parceria para o programa de Cloud Credits, que chega agora ao Brasil.

A parceria tem como objetivo avaliar e indicar startups, cujas selecionadas recebem uma espécie de investimento seed de US$ 100 mil na forma de uso de serviços e soluções da plataforma Google Cloud.

Fonte: Computerworld

Gostou? Quer compartilhar?

BXBmaster garante boa safra de informações para a Vinícola Famiglia Zanlorenzi

Com 70 anos de história, o Grupo Vinícola Famiglia Zanlorenzi é um dos líderes de mercado no Brasil e está presente em diversos países da América Latina. Poder analisar toda a linha de produtos, e acompanhar a equipe de vendas de forma rápida e fácil é primordial e garante maior agilidade e segurança a cada decisão tomada. Uma ferramenta que facilita esse trabalho é o BXBmaster, software de Business Intelligence desenvolvido pela empresa BXBsoft.

O grupo é constituído por três vinícolas, a Famiglia Zanlorenzi, responsável pelos produtos de acesso, a Vinícola Serra Gaúcha, responsável pelos produtos premium e, a Sutil Family Wines, vinícola parceira do Chile responsável pelos vinhos finos importados. Tiago Pianaro Legnani, da Vinícola Famiglia Zanlorenzi, explica que “um dos grandes desafios da empresa era ter um sistema de apoio a decisão que além de ser de fácil integração com seu sistema ERP Totvs, permitisse analisar, cruzar e disponibilizar informações de todas as suas unidades de faturamento e venda, visto que a mesma possui um núcleo comercial itinerante em acordo com a sazonalidade de produção e logística, característicos de seu mercado e forma de atuação”.

Tiago destaca algumas vantagens para o usuário: “a interação com a ferramenta é fácil, não precisa de treinamento e é possível analisar, de forma rápida, prática e em tempo real, diversos tipos de relatórios, toda a linha de produtos e todas as áreas de vendas com riqueza de detalhes. Também é possível fazer uma análise detalhada de cada cliente, antecipando as possibilidades de negociação na próxima visita”.

Gostou? Quer compartilhar?

Software de Business Intelligence facilita a tomada de decisões em escritório de advocacia

A Ferreira & Chagas Advogados é referência nacional em advocacia empresarial com mais de vinte anos de atendimento a empresas dos mais variados portes e segmentos econômicos, especialmente, grandes corporações do setor bancário. O escritório aplica conceitos modernos de gestão à banca de advocacia e utiliza diversas ferramentas de tecnologia para ganhar eficiência.

As principais informações gerenciais são tratadas por ferramentas de Business Intelligence, que extraem dados do sistema de gestão de processos do escritório e garantem, de forma rápida e eficiente, a elaboração de mais de uma centena de relatórios para medir eficiência, rentabilidade, auditoria e muitos outros controles estatísticos. O grande volume de processos do escritório, analisado de uma forma dinâmica, trouxe uma nova visão de negócio para Ferreira & Chagas.

O diretor de Tecnologia da Informação Marcelo Marques explica que o BXBmaster e o BXBreports, desenvolvidos pela empresa BXBsoft, são extremamente flexíveis sob o ponto de vista de conexão ao banco de dados e oferecem altos ganhos de produtividade na elaboração de relatórios e análise de grandes volumes de informações. É possível acompanhar o andamento de todas as atividades relacionadas a clientes, advogados e filiais com relatórios que podem ser agendados. “A maioria destes relatórios é atualizada automaticamente durante a madrugada e disponibilizada nos respectivos e-mails dos gestores e diretores. Assim, ao chegar pela manhã, todos nós já temos o panorama geral da operação e iniciamos o dia dando os direcionamentos necessários”, completa Marcelo.

Marcelo ainda acrescenta que um ponto que merece destaque é a gestão financeira através das soluções BXB. “Seguindo o conceito de Gestão à Vista, elaboramos diversos relatórios que demonstram a evolução financeira da companhia. Os relatórios são distribuídos automaticamente e, desta forma, todos estão sempre focados na busca de resultados. Embora poderoso, o BXB é um software extremamente simples de ser operado, o que nos permite a criação de cubos e relatórios em tempo real para uma reunião específica ou mesmo para fornecer alguma informação pontual solicitada por algum cliente. Estamos muito satisfeitos com os resultados oferecidos pelas soluções BXB”.

Leonardo R. M. Matt, sócio-diretor da BXBsoft salienta que “a simplicidade para o uso faz parte da concepção das ferramentas BXB e implica diretamente no seu baixo custo de manutenção, ao mesmo tempo que a sua flexibilidade permite a utilização nos diversos departamentos de uma organização, como também em diferentes segmentos de mercado”.

Gostou? Quer compartilhar?

BXBsoft expande mercado na Europa em parceria com a Oversystem de Portugal

As ferramentas de Business Intelligence da BXBsoft passam a integrar o portfólio da empresa de tecnologia portuguesa Oversystem Europa. A parceria visa oferecer soluções eficientes para empresas portuguesas que desejam implantar BI em sistemas de gestão com projetos enxutos e resultados rápidos e com facilidade de integração e baixo custo de implantação. “A Oversystem é especializada em serviços de TI, desenvolvimento próprio e aplicações mobile e vê em Business Intelligence uma grande oportunidade de oferecer mais valia ao mercado, minimizando alterações de ERPs tradicionais do mercado português”, ressalta o diretor Hebert Viana, brasileiro com mais de uma década de experiência na área de tecnologia naquele país.

A Oversystem já concluiu as fases de construção do projeto e comercialização. Informações sobre as ferramentas da BXBsoft estão disponíveis em www.bxbsoft.pt e também se trabalha uma base de dados de demonstração.
Para Hebert Viana, “é importante se observar e respeitar o modo de operação do mercado de softwares de gestão de Portugal. O Brasil precisou fazer ferramentas flexíveis em diferentes estados e municípios para se adaptar a necessidades regionais e isso pode ser um facilitador para uma visão transnacional no momento de levar uma solução tecnológica para outro país”.

Ao completar 25 anos de história, a BXBsoft enxerga a entrada no mercado português como consequência de um trabalho sólido de internacionalização. Nos últimos anos, a empresa tem marcado presença em vários programas e inciativas voltados à exportação e de grandes eventos mundiais como a CeBIT, na Alemanha, onde participou como expositora, em apoio à sua distribuidora para os países de língua alemã.

Fonte: BXBsoft

Gostou? Quer compartilhar?

Dados In-Memory: o fim do Business Intelligence?

Por David Akka * no portal CIO

Desde que os sistemas de Business Intelligence (BI) evoluíram para data warehouses, as empresas têm conseguido analisar e agir com quantidades cada vez maiores de informações que possuem em seus bancos de dados. No entanto, a tendência atual em direção ao Big Data e análises em tempo real faz os sistemas de BI parecerem dinossauros: os dados de ontem são velhos demais para serem relevantes, fazendo com que as empresas percam oportunidades quando confrontadas com concorrentes cada vez mais ágeis.

A tecnologia de dados in-memory está tornando esse mundo uma realidade, sendo capaz de lidar com dados tradicionais e dados não estruturados, porém, que mudanças precisam ser feitas? Será possível integrar sistemas de BI legados no contexto do Big Data?

Como chegamos até aqui
A história do BI está relacionada com a escala, precisão (descritiva ou preditiva), facilidade e escopo com os quais tentamos analisar os dados. Antes da chegada dos sistemas de BI, aplicativos corporativos tinham seus próprios bancos de dados, que continham todas as informações que eles podiam acessar para realizar suas funções e era possível obter informações úteis sobre o negócio a partir desses dados. Por exemplo, um banco de dados de clientes pré-BI continha informações que poderiam ser usadas para segmentar a base de clientes e orientar o marketing, as vendas e os investimentos de P&D.

No entanto, esses sistemas eram ilhados porque não eram ligados a outros sistemas: eles não eram capazes de compartilhar bancos de dados e, apesar de cada sistema manter dados importantes, seu valor era limitado. O problema agravou-se conforme as empresas adquiriam mais sistemas de TI ligados a vários departamentos, tais como CRM, ERP, RH, finanças e atendimento ao cliente. Fusões e aquisições fizeram as empresas ficarem com vários sistemas para cumprir os mesmos requisitos funcionais, mas agindo contra um subconjunto de dados totais da empresa para a função específica. Nesse ponto, o potencial analítico diminuiu, pois a complexidade de se obter um único ponto de vista preciso dos dados aumentou com cada sistema novo.

Foi nesse momento que o conceito de Data Warehouse de BI surgiu, como um repositório único para todos os dados da empresa, onde os dados podem ser organizados, analisados ​​e trabalhados de forma útil pela empresa. O desafio que as empresas enfrentam hoje decorre da maneira pela qual essa visão foi implantada e das ferramentas utilizadas.

Ferramentas de extração, transformação e carregamento (ETL) foram desenvolvidas para lidar com a movimentação de dados dos sistemas corporativos para Data Warehouses, inclusive para tornar os dados legíveis e mantê-los atualizados, e os sistemas de orquestração de processos de negócios também são capazes de conectar dados com Data Warehouses da mesma forma. Motores de mineração de dados realizavam a análise dos dados no data warehouse, e ferramentas de relatórios eram ligadas à mineração de dados para fornecer um resultado de fácil compreensão.

Essas ferramentas foram capazes de fornecer às empresas dados históricos precisos e completos, além de certo grau de previsibilidade, com a extrapolação de tendências passadas. No entanto, o Big Data já começa a ganhar uma aceitação generalizada, e isso muda completamente a maneira com que usamos o BI.

Por que o Big Data é diferente?
Big Data na verdade é um termo que pode enganar, já que ao ouvir esse nome imagina-se bancos de dados maiores e mais complexos, mas a realidade é que Big Data se refere a um tipo muito diferente de dados: trata-se de dados não estruturados, que não podem ser mapeados em um banco de dados relacional tradicional. Big Data é caracterizado pelos “Quatro Vs”: volume, velocidade, variedade e valor.

– Volume refere-se ao fato de que podemos gerar uma enorme quantidade de dados, gerando quantidades cada vez maiores. Por exemplo, smartphones contêm um conjunto de sensores que produzem dados, os quais podem ser consultados para uso em análises, como em sistemas de GPS. Conforme o número, complexidade e exploração de smartphones aumentam (mais smartphones produzindo mais dados e usuários que sabem como utilizá-los), o volume de dados produzidos também aumentará.

– Velocidade significa que os dados mudam rapidamente, por isso, em vez de dados de BI tradicionais sobre pedidos de clientes que podem ser manipulados em lotes, nós temos dados de localização de smartphones, que ficam desatualizados em minutos ou mesmo segundos, caso nosso objetivo seja enviar uma oferta específica a um cliente em uma rua.

– Variedade refere-se aos vários tipos de dados e fontes, de bancos de dados a objetos de áudio e vídeo (aos quais podemos anexar contexto e se tornam parte da análise) e quantidades crescentes de dados móveis e sociais não estruturados.

– Valor é exatamente o que o nome diz: quanto mais obtemos ao analisar o Big Data, mais valor podemos extrair dele.

Isto significa que estamos saindo de um modelo em que os data warehouses são a “única fonte da verdade” para uma empresa e nos movendo em direção a uma visão mais descentralizada, onde os bancos de dados são enriquecidos com informações em tempo real e não relacionais. Há apenas um problema: como podemos fazer nossas ferramentas de BI existentes trabalharem nesse novo contexto?

Ferramentas analíticas e de data warehousing existentes são projetadas para executar consultas predefinidas ou ad-hoc em grandes bancos de dados, mas a análise preditiva e os dados em tempo real exigem ferramentas diferentes, portanto nossas ferramentas existentes teriam de ser reprogramadas para que possam trabalhar com eles.

Como podemos acolher o Big Data?
Tudo isso leva a uma questão fundamental: o Big Data e seus dados in-memory associados estão aposentando as ferramentas de BI tradicionais? Qualquer tentativa de responder a essa questão só irá trazer mais questões: devemos estender a integração corporativa existente para as novas ferramentas? A computação In-Memory irá substituir o ETL e o processamento em lotes? As melhorias do ETL, como a integração com base em processos, continuam a liderar o caminho nesse novo contexto? Ou será que precisamos de uma plataforma inteligente que possa integrar todos estes elementos?

Não quero tentar responder a estas questões aqui, pois isso é assunto para outro dia. Em vez disso, eu gostaria de mostrar a diferença que o novo contexto pode trazer e deixar que vocês pensem sobre o que isso pode trazer para sua empresa.

Imagine uma loja de rua, como a House of Fraser: no modelo de BI tradicional, eles desejariam guardar seu histórico de transações e, para isso, iriam oferecer um cartão de fidelidade. Passar esse cartão toda vez que você fizer uma compra iria possibilitá-los monitorar o que você comprou e colocar estes dados em um data warehouse ou cubo, onde os dados poderiam ser cuidadosamente segmentados para fornecer informações sobre quais promoções poderiam ser oferecidas para você. O problema é que esta é uma solução reativa, tentando fazer uma extrapolação com base em uma atividade passada, ela não oferece uma experiência muito personalizada, além disso, os clientes gostam cada vez menos de cartões de fidelidade.

Em um contexto In-Memory do Big Data, o quadro é muito diferente. O lojista não precisa persuadir o cliente a fazer um cartão de fidelidade, pois eles podem rastrear suas compras pelo seu número de cartão de crédito. Eles sabem para qual tipo de compras aquele cartão específico é usado e podem rastrear as diferenças entre as diversas compras. Por exemplo, se você faz duas compras semanais, mas comprou um cinto na primeira compra, o sistema poderia, de forma inteligente, oferecer a você uma oferta em que você possa estar interessado. Não outro cinto (você já tem um), mas, por exemplo, uma oferta de meias que as pessoas que também compraram esse cinto usam.

Para criar e personalizar essa promoção, seria possível utilizar dados sobre as pessoas perto de você, dados demográficos semelhantes e o que as pessoas que compraram o mesmo item disseram sobre ele nas mídias sociais. Quem recomendou a marca, ela foi destaque em algum jornal ou revista? Não é apenas a quantidade de dados que pode ser ampliada, eles precisam também abranger dados estruturados e não estruturados, e o tipo de informação que antes seria difícil de coletar ou analisar agora é exatamente o que vai convencer o cliente a comprar.

Esta promoção personalizada é possível, em tempo real, sem cubos de dados ou Data Warehouses, sem BI e apenas tendo suas compras e as compras de todos os outros clientes na memória. “Em tempo real” também significa que as ofertas não precisam esperar até que você esteja no caixa (momento em que o cliente para de pensar em fazer compras e passa a pensar em ir para casa e fica, portanto, menos receptivo). Em vez disso, combinando a oferta com aqueles scanners portáteis que são cada vez mais populares em supermercados, você poderia receber uma oferta personalizada assim que você pegar um item ou passar em um corredor. Se você já recebeu suas compras em casa e lembrou depois de outra coisa que você precisava, imagine como seria útil receber um lembrete rápido sobre seus itens mais comprados.

(*) David Akka é CEO da Magic Software UK

Gostou? Quer compartilhar?

TI x Negócios na adoção do Big Data

A adoção de soluções de Big Data não é exatamente uma novidade no Brasil. É fato que um volume de empresas cada vez maior enxerga o enorme potencial dessa tecnologia e opta por implementá-la para aprimorar processos, expandir negócios, ou até mesmo imprimir novos ritmos em suas operações.

Embora mudanças processuais sejam previstas com a adoção dessa plataforma, transformações organizacionais, até então inesperadas, também estão surgindo. E junto com elas chegam as dúvidas e a necessidade de novos posicionamentos.

Um dos desafios mais emblemáticos, impulsionado pela adoção do Big Data, é o embate entre as áreas de TI e Negócios. Esses profissionais vivenciam discussões diárias, que vão desde a melhor tecnologia a ser adquirida até a discordância a respeito de quem tem o domínio sobre os imensos volumes de dados das empresa.

Apesar de não existir uma única receita para o uso estratégico do Big Data, é impossível responder a questão sobre a propriedade de dados – e a impossibilidade parte de um princípio simples: dados, estruturados ou não, são ativos de toda uma companhia e não apenas informação privilegiada de um determinado setor ou colaborador.

Seria difícil, para não dizer improvável, que essa conclusão fosse diferente, já que o Big Data oferece aos profissionais a oportunidade de tornarem-se usuários self-service. Isso significa garantir a um funcionário da empresa a liberdade de criar análises a qualquer momento e a partir de suas necessidades. Não há mais motivos para longas esperas ou processos burocráticos; as respostas estão em poucos cliques e à distância de segundos.

Atualmente, as fontes de coleta de informações são praticamente ilimitadas, assim como ininterruptas. Por qual razão então esses dados deveriam manter-se restritos a apenas uma área? Podemos ir além: por que não utilizar plataformas móveis para criar um processo de comunicação colaborativa, em que as informações de interesse da empresa são difundidas em tempo real e até mesmo de forma interativa?

Para que tudo isso seja viável, porém, os investimentos em capacitação são fundamentais. Treinar e orientar profissionais quanto aos processos internos da companhia e ao uso de uma tecnologia dessa magnitude é tão relevante quanto a decisão da empresa em adotar uma plataforma de negócios como o Big Data. O caminho, neste caso, pode até parecer mais longo, mas os resultados valem o esforço.

Por Marcos Pichatelli – Gerente de Produtos de High-Performance Analytics do SAS, líder de mercado em soluções e serviços de Business Analytics e o maior fornecedor independente no mercado de Business Intelligence.

Gostou? Quer compartilhar?

Indústria alimentícia considera QlikView, implantado pela Qway, como ferramenta estratégica de negócios

A Barion é uma referência nacional na produção de wafer e chocolate. Com a implantação do QlikView, ferramenta de Business Intelligence mundialmente reconhecida, passou a ter maior controle de informações, lucratividade e metas estabelecidas. Em uma reportagem em vídeo, o diretor Alexandre Barion conta como foi a implantação realizada pela empresa QWay.

Gostou? Quer compartilhar?

Data Warehouse, Business Intelligence e Data Mining: qual a diferença?

Fonte: www.businessintelligencbi.inf.br

Por Aderlan Rodrigues
www.qway.com.br

Primeiro, uma breve definição de cada uma:

Data Warehouse

Um data warehouse (ou armazém de dados, ou depósito de dados no Brasil) é um sistema de computação utilizado para armazenar informações relativas às atividades de uma organização em bancos de dados, de forma consolidada. O desenho da base de dados favorece os relatórios, a análise de grandes volumes de dados e a obtenção de informações estratégicas que podem facilitar a tomada de decisão. (Wikipédia)

Business Intelligence

O termo Business Intelligence (BI), pode ser traduzido como Inteligência de negócios, refere-se ao processo de coleta, organização, análise, compartilhamento e monitoramento de informações que oferecem suporte a gestão de negócios. (Wikipédia)

Data Mining

Prospecção de dados (português europeu) ou mineração de dados (português brasileiro) (também conhecida pelo termo inglês data mining) é o processo de explorar grandes quantidades de dados à procura de padrões consistentes, como regras de associação ou sequências temporais, para detectar relacionamentos sistemáticos entre variáveis, detectando assim novos subconjuntos de dados. (Wikipédia)

Apesar das definições acima, é comum haver confusão no uso e na interpretação desses termos, pois a aplicabilidade delas passa pelos mesmos processos ou por processos semelhantes.

O DW, como está na definição, nada mais é do que um depósito de dados, projetado especialmente para organizar os dados de tal forma que facilite e viabilize o acesso a informações, o que não é possível no modelo tradicional de armazenamento de dados.

Quando um sistema é construído, o objetivo da maioria é facilitar a coleta e armazenamento de dados do nosso dia a dia, porém o modelo tradicional usado privilegia a gravação e leitura, sem se preocupar com a geração de informações e conhecimento.

Já o BI, são técnicas usadas em conjunto com o DW para analisar os dados. Nesse instante, você deve está pensando: Mas o BI não precisa do DW para funcionar, existem diversas ferramentas de BI que trabalham sozinhas, não preciso de um DW para fazer BI. Você não está errado, a não ser por um detalhe, todas as ferramentas de BI, quando não usam um data warehouse usam uma metodologia própria para organizar e analisar os dados, e muitas vezes, usam o data warehouse juntamente com essa metodologia. Agora lhe pergunto, se os softwares de BI usam metodologias próprias para coletar, organizar e analisar os dados, eles não estão criando um DW? A resposta é sim. Seja usando um data warehouse externo ou sua própria metodologia, as ferramentas de BI nada mais são do que técnicas automatizadas para geração de informações. Essas técnicas podem ser usadas diretamente nos seus dados sem nenhum problema, estejam eles, onde estiverem. Mas claro que uma boa ferramenta ajuda, e muito, esse processo.

Mas, e o data mining? Esse, com certeza é a “menina dos olhos” de todo gestor, e sem dúvida, deve mesmo ser, pois o DM é um conjunto de técnicas usadas na descoberta de padrões. Possibilitando descobrir informações e gerar conhecimento relacionado aos dados onde essas técnicas são aplicadas. Como existem diversas técnicas, conhecidas como algoritmos, o data mining é sem dúvida o mais complexo, exigindo um conhecimento elevado de quem faz uso, tanto na preparação dos dados, quanto na interpretação das informações.

Em resumo, dados geram informação, informações geram conhecimento, logo, data warehouse armazena os dados de tal forma a facilitar a geração de informações. Business intelligence são as técnicas usadas na geração e análise dessas informações e data mining são as técnicas usadas para a descoberta de informações e conhecimentos.

Data Mining é a possibilidade de enxergar algo nunca imaginado, descobrir padrões e tendências.

Gostou? Quer compartilhar?

Gartner anuncia a primeira Conferência sobre BI e Gestão da Informação no Brasil

O Gartner, líder mundial em pesquisa e aconselhamento sobre tecnologia, anuncia a Conferência Business Intelligence e Gestão da Informação, que acontece nos dias 4 e 5 de junho (terça e quarta-feira), no Sheraton São Paulo WTC Hotel. É a primeira vez em que BI e gestão da informação terão um evento dedicado no Brasil. Esses temas são uma tendência mundial e foram apontados no estudo do Gartner “The 2013 CIO Agenda” como a prioridade número um para os CIOs, tanto em nível global, quanto na América Latina.

Nos dois dias de evento, os analistas do Gartner apresentarão as preocupações do mundo real, fornecendo insights relevantes e acionáveis para ajudá-lo a ter mais sucesso em seu ambiente específico. Entre os assuntos estão: Big Data, BI, Mídias Sociais, ferramentas de análise de dados, Master Data Management (MDM), computação In-Memory, análises preditivas e gestão da informação. Além das palestras, os participantes terão acesso aos workshops, mesas redondas, clínicas, networking e sessões one-on-one com os analistas do Gartner ou fornecedores de preferência.

As inscrições para o evento podem ser feitas pelo e-mail brasil.inscricoes@gartner.com, pelo site www.gartner.com/br/bi ou pelo telefone (11) 5632-3109. Até o dia 3 de maio é possível obter desconto de R$ 775,00.

Anote em sua agenda – Conferência Gartner BI e Gestão da Informação
Site: www.gartner.com/br/bi
Datas: 4 e 5 de junho (terça e quarta-feira)
Local: Sheraton São Paulo WTC Hotel – Avenida das Nações Unidas, nº 12.551
Horário: a partir das 8h

Gostou? Quer compartilhar?

Business Intelligence: BXBmaster da Solusoft melhora gestão de bombeiros voluntários

Com mais de 120 anos de atuação, o Corpo de Bombeiros Voluntários de Joinville, no norte de Santa Catarina, é um exemplo nacional de eficiência em combate a incêndios e resgate. Congrega quase 2 mil pessoas, entre jovens, mulheres e homens (90% são voluntários). Essas pessoas atuam em atividades administrativas, de treinamento, vistoria a edificações, operações de prevenção e combate ao fogo, busca por salvamento e resgate veicular.
Desde 2009, a corporação conta com o apoio da tecnologia para melhorar a gestão e, consequentemente, o serviço prestado à comunidade. A PROSYST, que atua no mercado de sistemas de gestão, informatizou os setores financeiro e de suprimentos. Ivan Frederico Hudler, diretor da empresa, que também é de Joinville, se dedica ao projeto a ponto de atualmente ocupar o cargo de vice-presidente do CBVJ.
Parceira da PROSYST, a Solusoft Informática também apoia a inciativa com o BXBmaster, ferramenta de Business Intelligence que facilita a análise dos resultados e dos recursos administrados, provenientes de doações do poder público, da iniciativa privada e da população local. Ivan Frederico Hudler conta que o BXBmaster promove agilidade no detalhamento das demonstrações financeiras, a partir de uma apresentação consolidada, possibilitando efetuar análise eficaz e rápida dos dados. “Não tínhamos agilidade e nem flexibilidade na demonstração dos números aos conselheiros. Atualmente, avaliar posição orçamentária e financeira tem sido uma tarefa de qualidade associada a velocidade. O BXBmaster está contribuindo na qualidade dos processos, aumentando a eficiência da gestão administrativo-financeira”, completa o vice-presidente do Corpo de Bombeiros Voluntários de Joinville.

Gostou? Quer compartilhar?

BXBmaster da Solusoft ajuda empresa a “enxergar melhor” o próprio negócio

A Embrapol é uma empresa especializa em serviços, produtos e soluções completas para óticas. No ramo em que atua, é importante tomar decisões rapidamente com base em relatórios gerenciais. O diretor da Embrapol Nilo Ferreira Júnior diz que a empresa analisa e cruza informações de formas diferentes como carteiras de vendedores com diferenças de produtos, tratamento, material, serviços, regiões. E para isso , utiliza o BXBmaster, ferramenta de Business Intelligence da Solusoft Informática.

Nilo destaca a simplicidade, o baixo custo e a eficiência do BXBmaster. “É direto ao ponto, não precisamos de treinamento especial, não pagamos por mais do que precisamos. Do momento da instalação ao uso, deu menos de uma semana”. Nilo também ressalta que é muito importante o fato de não precisar do apoio da área de TI da empresa para utilizar a ferramenta. “ Muitas vezes, eu resolvo tudo sozinho. E a equipe de venda também consegue isso. Há relatórios em que eles entram, olham e resolvem de uma forma simples e direta”.

O BXBmaster também solucionou problemas antigos que dificultavam a produção e a análise de relatórios. Nilo Ferreira Júnior conta que a empresa trabalhava com outro software que saiu do mercado. O banco de dados evoluiu e houve uma desconexão das ferramentas de gestão. Aí, começaram as dificuldades na hora de extrair dados, aumentando a dependência do apoio da equipe interna de TI para solução de problemas. Relatórios que precisavam sair na hora ou, no máximo, em um dia, acabavam não ficando prontos para tomada de decisões urgentes. “O BXB facilitou muito isso, concluiu o empresário. Acompanhe depoimento em vídeo:

Gostou? Quer compartilhar?