Latest news

ITIL: boas práticas para melhorar o seu IT Service Management

ITIL é um acrónimo para Information Technology Infrastructure Library e é um conjunto de boas práticas que permitem melhorar a operação e a gestão de todos os serviços de IT de uma empresa. Quando implementado pelas organizações, este conjunto de práticas torna-se uma mais-valia inequívoca, uma vez que apresenta vantagens como a melhor gestão de riscos, o fortalecimento das relações com os clientes, a melhoria da produtividade e mesmo a redução de custos.

Desenvolvida no ano de 1980 pela Central Computer and Telecommunications Agency (CCTA) – pertencente ao governo Britânico – esta é a principal framework que permite estabelecer um bom IT Service Management (ITSM). Começou por ter mais de 30 livros, que aglomeravam inúmeras fontes de informação e que descreviam as boas práticas que as TI deveriam seguir. Neste momento, a ITIL conta com cinco livros que abordam os vários processos e funções (sendo 26 o número total de processos que podem ser adotados pelas empresas).

Em 2005 esta framework foi finalmente reconhecida e adquiriu o selo de aprovação ISO/IEC 20000 Service Management, por se encontrar em conformidade com o standard pretendido e por estar alinhado, de facto, com as melhores práticas em Tecnologias da Informação.

A ITIL sofreu algumas revisões ao longo da sua história e conta já com 4 versões, tendo a última sido lançada no início de 2019. Esta versão, mais atual, mantém um enorme foco e preocupação com a automatização de processos, de forma a otimizar o tempo dos profissionais, e com a integração dos departamentos de IT nos negócios – de forma a melhorar a comunicação entre equipas e pessoal técnico e não técnico. A versão 4 apresenta novas formas de responder aos desafios da tecnologia moderna, e pretende caminhar para ser cada vez mais agile e colaborativa.

Para implementar ITIL numa empresa não basta ler os livros existentes. É necessário ter profissionais dedicados a esta área, com o mindset indicado, e garantir formações e certificações tanto para a empresa como para esses profissionais. A certificação, de acordo com a versão 4 do ITIL, divide-se em dois patamares: ITIL Foundation e ITIL Master – cada um com os seus exames e conteúdos programáticos. No módulo ITIL Foundation existem duas possibilidades: a certificação ITIL Managing Professional (que oferece certificação como ITIL Specialist) e a certificação ITIL Strategic Leaders (que, por sua vez, inclui certificado para ITIL Strategist e ITIL Leader). Após completar as certificações do nível Foundation, pode dar o salto para o nível Master – a certificação mais elevada que pode ter no ITIL 4. No quadro abaixo pode verificar o esquema completo:

ITIL

O ITIL divide-se em cinco grandes áreas – Service Strategy; Service Design; Service Transition; Service Operations e Continual Service Improvement – sendo que cada área apresenta os seus processos. Embora esta framework apresente, ao todo, 26 processos, não é necessário que as empresas os adotem na sua totalidade. Cabe aos profissionais de IT, e, no limite, ao CTO, definir quais os procedimentos a integrar nas equipas. Aqui ficam alguns exemplos dos processos mais utilizados:

ITIL
Ana LamelasITIL: boas práticas para melhorar o seu IT Service Management
read more

Web content management

Para que serve, quais as vantagens e que tecnologias são hoje em dia uma referência

Por Web Content Management System (WCMS), entende-se a utilização de um CMS (Content Management System), que mais não é que um conjunto de ferramentas que permite a qualquer entidade gerir a sua informação digital alojada num website, com a possibilidade de criar e gerir conteúdo sem ser necessário conhecimentos de programação ou linguagens de markup. O WCMS é um programa que ajuda a manter, controlar, mudar e a ajustar o conteúdo numa webpage.

O WCMS comporta-se de forma similar a uma gestão de conteúdos tradicional – gerindo a integridade, edições e ciclo de vida da informação – com a ressalva que esta gestão é efetuada para conteúdo especificamente designado para a web.

Alguns aspetos de destaque de qualquer WCMS são a possibilidade de criar e manter conteúdo personalizado no website; a possibilidade de editores poderem rever e aprovar conteúdo antes da publicação; e o estabelecimento de um processo de publicação automático.  A par disto, há uma necessidade cada vez maior de ter plataformas que permitem criar e disponibilizar não somente conteúdos, mas toda uma experiência de utilização – soluções que consomem os conteúdos carregados e que permitem, ao mesmo tempo, acompanhar toda a jornada do utilizador – independentemente do canal que estiver a ser utilizado.

Prós e Contras

A utilização de um WCMS tem vários aspetos que devem ser considerados.

Por um lado, as plataformas de WCMS são usualmente pouco dispendiosas e muito intuitivas em termos de utilização, não sendo, por isso, necessários conhecimentos técnicos de programação para gerir e criar conteúdo. O próprio workflow do WCMS também pode ser personalizado com a criação de várias contas para diferentes perfis.

Por outro lado, algumas implementações no WCMS podem ser algo dispendiosas ao requererem formação ou certificações. A manutenção pode também acarretar custos, requerendo upgrades ou updates de licenciamento. A segurança é também uma preocupação nestas plataformas, uma vez que, quando existem ameaças de segurança, por vezes cria-se uma vulnerabilidade que pode ser explorada por hackers, podendo potencialmente prejudicar a percepção das marcas por parte dos seus clientes.

Escolher a melhor solução de WCMS

Num WCMS o conteúdo é na sua maioria mantido numa base de dados e agrupado utilizando uma linguagem flexível, como XML ou .Net.

Existem várias opções que utilizam WCMS open-source, como o WordPress, Drupal e Joomla para funções mais genéricas; há também soluções que endereçam necessidades específicas, como por exemplo, a plataforma Marketing 360, a Filestack e a CleanPix.

Por outro lado, temos atualmente no mercado soluções comerciais como é o caso de Sitecore que agrega numa única plataforma componentes de WCMS, Personalização de Conteúdos, Marketing, Digital Asset Management e E-Commerce. Esta é uma das grandes vantagens desta plataforma que, ao invés de adquirir e integrar os diversos componentes que irão consumir conteúdos e informação a um sistema adjacente, neste caso os dados e informação de contatos e interações efetuadas através dos diversos canais já existem e encontram-se disponíveis na plataforma. Estes dados já se encontram prontos a serem utilizados e trabalhados por diferentes áreas e para diferentes propósitos: criação de campanhas, envio de emails, criação de fluxos de marketing e criação de regras de personalização, entre outros.

As soluções WCMS providenciam diferentes funcionalidades, com diversos graus de profundidade e propósitos específicos. Antes de selecionar a plataforma, considere funcionalidades como:

  • Configuração: a possibilidade de ativar e desativar funcionalidades através de parâmetros específicos para o efeito.
  • Gestão de Acessos: gestão de utilizadores, permissões e grupos.
  • Extensão: integração e capacidade de instalação e configuração de novas funcionalidades e / ou conectores.
  • Possibilidade de instalar modelos com novas funcionalidades.
  • Customização: possibilidade de alterar as especificações de forma a personalizar algumas features, através de toolkits ou interfaces
  • WYSIWYG: capacidade de disponibilizar um mecanismo de “What you see is what you get”, permitindo aos Gestores de Conteúdo perceber, no momento das alterações, o que os utilizadores irão visualizar após a disponibilização da nova versão dos conteúdos. Um bom exemplo é a funcionalidade disponível na plataforma Sitecore denominada de “Experience Editor”
  • Integração: possibilidade de integrar a solução de WCM com outras soluções já instaladas ou com outras soluções externas por forma a agregar a informação de ambas; por exemplo integração com Microsoft CRM Dynamics 365 ou Microsoft SharePoint.
  • Fluxos: capacidade de incorporar mecanismo de configuração de fluxos de aprovação da alteração de conteúdos, por diferentes autores de conteúdo com diferentes perfis, e de publicação de conteúdos.
  • User Experience: permite que a edição seja feita de forma pouco complexa, com templates built-in que adicionam uma funcionalidade pré-definida à página, sem ser necessário ter formação adicional.
  • Assistência técnica e updates: considerar o nível de apoio técnico que irá receber, assim como o nível de acessibilidade aos updates do sistema.

Vantagens de WCMS

Uma grande vantagem do WCMS é o facto de ser a solução de software que permite controlo consistente do look and feel do website- a marca, wire frames, navegação – ao mesmo tempo que permite a possibilidade de criar, editar e publicar conteúdo – artigos, galerias de fotos, vídeo, etc. No caso de empresas que possam dispor de repositório de conteúdo muito rico ou focado em brand consistency, a solução mais adequada poderá ser um WCMS.

Outras vantagens incluem:

  • Templates automatizados;
  • Aceso controlado à página;
  • Expansão escalável;
  • Ferramentas que permitam uma edição simples, através de soluções WYSIWYG
  • Updates regulares de software;
  • Gestão de workflow;
  • Ferramentas de colaboração que permitam a vários utilizadores modificar conteúdo;
  • Gestão de documentos;
  • Possibilidade de publicar conteúdo em várias línguas;
  • Possibilidade de recuperar edições mais antigas.
  • Possibilidade de analisar os conteúdos em diferentes dispositivos (desktop, mobile, tablet, watch).
  • Disponibilização de conteúdos omnicanal.

A nossa visão

A gestão de conteúdos é uma temática relevante, embora não seja recente. No entanto, o tema que tem ganho muita tracção ao longo dos últimos anos é a capacidade de utilizar conteúdos de forma personalizada, para oferecer uma experiência relevante aos utilizadores. Para concretizar esta visão, a Xpand IT estabeleceu há já algum tempo uma parceria com a Sitecore porque acreditamos que esta á a plataforma certa para endereçar os desafios da personalização, tirando partido das vantagens que já foram referidas mas também de outras como o facto de o Sitecore permitir implementações Headless (separando todo o conteúdo da camada de apresentação) bem como a integração com plataformas móveis (potenciando verdadeiras soluções omnicanal). Estamos certos que a tecnologia tem muito para oferecer ao mercado e olhamos com entusiasmo para as novas funcionalidades que serão, em breve, disponibilizadas para concretizar cada vez mais esta visão – oferecer conteúdo relevante e personalizado a qualquer pessoa, a qualquer momento e em qualquer canal.

Sílvia RaposoWeb content management
read more

Xpand IT entra no ranking FT1000: Europe’s Fastest Growing Companies

É com muito orgulho que a Xpand IT anuncia a sua entrada no ranking Europe’s Fastest Growing Companies, do reconhecido jornal internacional Financial Times! Com um crescimento sustentado que ultrapassou os 45% em 2018, a Xpand IT foi considerada uma das 1000 empresas em toda a Europa que mais depressa cresceu, tendo em conta os resultados consolidados entre 2014 e 2017.

Mais de 10 Milhões de faturação e cerca de 195 colaboradores foram os números que nos garantiram um lugar nesta lista, sendo que desde então já demos o salto para 15 Milhões de faturação e para mais de 245 colaboradores. Assim, das três empresas tecnológicas portuguesas presentes no ranking, a Xpand IT é a que apresenta melhores resultados a nível de faturação e de aquisição de novo talento.

Para Paulo Lopes, CEO & Senior Partner da Xpand IT, “Integrar o ranking Europeu FT 1000 é o reconhecimento do trabalho que temos vindo a desenvolver nos últimos anos. Somos reconhecidos pelo nosso know-how e expertise na área tecnologia, mas também por uma equipa e cultura únicas, focada na excelência e inovação, o que torna mais fácil atingirmos este tipo de resultados.”

O objetivo para este ano será manter a tendência de crescimento, não só através da expansão para novos mercados, mas também com o aumento da equipa, que em 2019 se espera que chegue ao redondo número de 300 Xpanders!

Ana LamelasXpand IT entra no ranking FT1000: Europe’s Fastest Growing Companies
read more

7 passos para implementar um projeto de Data Science

Entende-se por data science o conjunto de métodos e processos aplicados a um problema complexo e concreto, com o intuito de o resolver. Pode ser utilizada a inferência de dados, o desenvolvimento de algoritmos e a tecnologia para analisar os dados recolhidos e entender alguns fenómenos, identificando padrões. É necessário que os data scientists tenham conhecimentos matemáticos e tecnológicos, e que tenham o mindset certo para atingir os resultados esperados.

O objetivo, no fundo, é que, através da unificação de conceitos como a estatística, a análise de dados e o machine learning, se possam desvendar comportamentos, tendências ou inferências em determinados dados, que não seriam possíveis identificar mediante uma análise simples. É a descoberta de valiosos insights que permitirá às empresas tomar melhores decisões de negócio e potenciar investimentos importantes.

Neste blog post desvendamos 7 passos importantes para que um projeto de data science possa ser implementado de forma a alcançar o sucesso.

1. Definir o tópico de interesse /pain-points da empresa

Para dar início a um projeto de data science é necessário perceber o que se estará a tentar descobrir. Que problema apresenta a empresa ou que objetivos se pretende atingir? De que tempo a empresa dispõe para trabalhar neste projeto? Como irá ser medido o sucesso?

Por exemplo, a Netflix utiliza técnicas avançadas de análise de dados  para descobrir padrões de visualização por parte dos seus clientes, de forma a tomar decisões mais acertadas sobre as séries que produzirá de seguida; já a Google utiliza algoritmos de data science para aprimorar a colocação e demonstração de banners em display, seja publicidade ou re-targetting

2. Obter os dados necessários

Depois de definido o tópico de interesse, o foco passa a estar na recolha dos dados fundamentais para elaborar o projeto, provenientes das bases de dados disponíveis. Existem inúmeras fontes de dados, sendo que as mais comuns são bases de dados relacionais, sendo que existem também fontes de dados semi-estruturadas. Outra forma de recolher os dados necessários é efetuar as ligações adequadas a web APIs ou retirar diretamente dos websites que se pretendam eventualmente analisar (web scraping).

3. “Polir” os dados recolhidos

Este é o passo seguinte – e o que se revela mais natural – já que depois de extraídos os dados das suas bases originais, é necessário filtrá-los. Este processo é indispensável, uma vez que ao analisar dados sem relevância os resultados poderão ser desvirtuados.

Em alguns casos, será necessário alterar dados e colunas, para verificar se não existem variáveis em falta. Por isso, um dos passos a ter em conta é a junção de informação proveniente de diversas fontes, para que, no final, se possa trabalhar com uma boa base, criando um workflow eficiente.

É, também, conveniente que os data scientists tenham conhecimento acerca de algumas ferramentas, como Python ou R, que lhes permitam realizar a tarefa de “polir” os dados da forma mais eficiente.

4. Explorar os dados

Quando os dados extraídos estiverem prontos e “polidos”, é necessário proceder a uma análise. Cada tipo de fonte de dados tem características diferentes, o que implica que tenham um tratamento também diferente. Neste ponto, o fundamental é que se criem estatísticas descritivas e que se testem hipóteses – variáveis significantes.

Depois de testadas algumas variáveis, o próximo passo é colocar os dados obtidos num software de data visualisation, para que se consiga encontrar algum padrão ou tendência.  E, agora sim, podemos passar para a inclusão da inteligência artificial e do machine learning.

5. Criar modelos analíticos avançados

Esta é a parte em que se modelam os dados recolhidos, tratados e analisados. É o momento de criar modelos para que se possam, por exemplo, predizer resultados futuros. No fundo, é nesta fase que os data scientists utilizam fórmulas de regressão e algoritmos para que se possam criar modelos preditivos e prever valores e padrões futuros, de forma a generalizar ocorrências e a tornar mais eficientes as decisões.

6. Interpretar os dados / recolher insights

Encontramo-nos praticamente no último nível de implementação de um projeto de data science. É a fase em que é necessário interpretar os modelos definidos e descobrir insights importantes para o negócio – encontrar generalizações para aplicar em dados futuros – e responder ou endereçar as questões que foram colocadas no início do projeto.

O objetivo de um projeto deste género é, precisamente, encontrar padrões que ajudem a empresas a tomar decisões: caso se deva evitar um comportamento ou repetir ações que tenham resultados manifestamente positivos.

7. Comunicar os resultados

A apresentação é também bastante importante, já que tem de ser claro para os stakeholders (muitas vezes, pessoal não técnico) quais os resultados do projeto. O data scientist tem de ter o “dom” de contar uma história, para que todo o processo faça sentido e para que encaixe na resolução do problema da empresa.

Se pretende saber mais sobre projetos de data science ou se procura aconselhamento, não hesite em contactar-nos.

Ana Lamelas7 passos para implementar um projeto de Data Science
read more

Node.js: a plataforma JavaScript utilizada pela Netflix e Uber

O crescimento a que temos assistido em relação ao JavaScript é difícil de esconder. Ao longo dos anos tem-se conseguido oferecer centenas – senão milhares – de frameworks e bibliotecas que ajudam os developers e as empresas a criar sites, portais, aplicações interativas, ágeis e com interfaces modernas. Se somarmos a isto o facto de o JavaScript ser independente de outras plataformas, fácil de aprender, suportado por uma comunidade sempre crescente, entre muitas outras vantagens, é fácil perceber porquê.

No entanto, durante muito tempo, o JavaScript foi uma linguagem exclusivamente orientada para client-side e nunca conseguiu ser uma alternativa para o backend. Pelo menos até 2009, ano em que foi lançada a primeira versão do Node.js. Pela primeira vez na história do JavaScript apareceu uma alternativa viável para backend.

Algo que é importante desmistificar é o receio que muitas empresas ainda têm sobre esta alternativa aos backend mais tradicionais (Java, .NET, etc), no seu mundo de aplicações Enterprise, mesmo quando empresas como Netflix, Trello, PayPal, Linkedin, Uber, Walmart, NASA, Intel, Twitter, entre muitos outros exemplos, já usam com sucesso Node.js nas suas infraestruturas, sendo que esta lista cresce de dia para dia.

Para quem ainda não conhece Node.js, é importante salientar algumas das suas maiores vantagens:

  • Ideal para a construção de aplicações real-time;
  • Facilita a visão do programador full stack em Javascript (visto que a linguagem para backend e frontend é a mesma);
  • Diminui o tempo de desenvolvimento, graças à visão full stack;
  • É suportado por uma comunidade gigante que contribui com novas bibliotecas e updates a um ritmo alucinante;
  • A execução do código é extremamente rápida;
  • Ideal em arquiteturas orientadas a micro serviços.

Voltamos então à questão que aqui queremos endereçar: porque é que as empresas devem adotar Node.js para as suas aplicações? Respondendo sucintamente, porque foi desenhado para aplicações de escala e orientado para uma visão moderna de como desenvolver aplicações com arquiteturas complexas.

Como é que, na realidade, se concretizam essas capacidades é a parte mais importante.

A escalabilidade é essencial na grande maioria das aplicações empresariais atuais e o Node.js responde a isso oferecendo de raíz um módulo de clustering com balanceamento de carga em múltiplos cores de CPU. Associando o poder de clustering a uma solução single-threaded, non-blocking, orientada a eventos e callbacks, permite que trate de múltiplas conexões em simultâneo, conseguindo desta forma o processamento de milhões de conexões concorrentes.

O facto de ser single-thread é, por vezes, encarado como uma limitação por, em teoria, poder tornar a aplicação mais lenta, mas isso não é mais do que um mito. Ao contrário de soluções que não são orientadas a eventos e onde são necessárias múltiplas threads para lidar com múltiplos pedidos, sendo que o número de threads em paralelo é limitado, em Node.js esse limite não existe. Desde que exista memória e o kernel assim o permita, podemos processar qualquer número de pedidos em simultâneo sem problema.

Existe também o receio de muitas empresas colocarem o seu código na Cloud, o que impediria a utilização do npm (Node Package Manager). Para endereçar esta questão, foi criada uma versão Enterprise que pode ser instalada e mantida na própria infraestrutura da empresa, mantendo assim o seu registo interno de módulos, obedecendo aos requisitos mais rígidos de segurança que possam existir.

Para além disso, existe ainda a questão do suporte a longo prazo. Esta será sempre uma preocupação nas soluções Enterprise, mas a verdade é que o Node.js também garante esse suporte.

Cada versão major do Node.js contará com suporte ativo durante 18 meses, desde o período em que entra em LTS (Long Time Support), passando depois para um regime de manutenção com a duração de 12 meses extra. Durante este período não haverá qualquer inclusão de novas funcionalidades na versão utilizada, apenas a correção de bugs e atualizações de segurança. Desta forma, o problema que poderia existir nas soluções desenvolvidas com recurso a Node.js porque, por não terem longevidade, poderiam deixar de ter suporte, deixa de fazer sentido.

Foi com base em toda esta informação que as empresas anteriormente referidas decidiram fazer a sua transição para esta tecnologia. O que é que ganharam?

  • Netflix: tempos de carregamento reduzidos em cerca de 1 minuto;
  • LinkedIn: reconstruiu o seu core dos serviços mobile recorrendo a Node.js, com a aplicação a correr 20 vezes mais rápido e com uma integração muito melhor entre backend e frontend, num altura em que o Node.js tinha, apenas, um ano de desenvolvimento;
  • PayPal: migrou todas as suas web applications de Java para Javascript e Node.js, e viu os seus programadores escreverem menos 33% das linhas de código, utilizar menos 40% dos ficheiros e levar metade do tempo a construir a sua aplicação (também com recurso a menos pessoas). Os tempos de resposta diminuíram em cerca de 35%, o que implicou páginas a serem devolvidas com uma melhoria de 200ms;
  • Uber: montou o seu sistema de relacionamento entre condutores e passageiros com Node.js devido às suas capacidades de resposta rápida, grande poder de processamento de pedidos e facilidade em ter uma arquitetura distribuída.

Com isto não quero dizer que o Node.js é uma “silver bullet”. Pode não ser a melhor solução para todos os casos, mas faz sentido avaliar as suas potencialidades e perceber as mais valias que podemos retirar desta tecnologia.

Francisco Costa

Enterprise Solutions Lead

Francisco CostaNode.js: a plataforma JavaScript utilizada pela Netflix e Uber
read more

O impacto de Big Data no Social Media Marketing

O social media nasceu com o intuito de criar ligações remotas entre colegas, amigos ou conhecidos que quisessem partilhar conhecimento e informação. Apesar desse propósito ainda constar da sua génese, a verdade é que o social media tem vindo a evoluir exponencialmente ano após ano, tendo-se tornado numa poderosa ferramenta de comunicação bi-direcional entre empresas e clientes.

Atualmente, o Social Media não só permite que as empresas comuniquem a sua marca e os seus produtos numa ótica de crescimento da sua base de clientes, mas permite, também, a  recolha de uma infinidade de inputs sobre os seus utilizadores, sejam eles seus clientes ou não.

Por essa razão, cada like, comment ou share, ajuda a que as empresas  percebam melhor os seus clientes e os seus comportamentos, através das interações que estes têm perante determinados conteúdos. Toda esta análise comportamental e partilha de informação gera um enorme volume de dados, algo apenas possível de armazenar e processar com recurso a tecnologias “Big Data”.

Na realidade, Big Data tem impactado quase todos os setores do nosso quotidiano,  alterando a forma como as pessoas comunicam, trabalham ou até mesmo como se divertem.

Ao longo das últimas décadas, a quantidade de dados gerados tem crescido de forma exponencial, duplicando a cada dois anos, e podendo chegar aos 44 triliões de gigabytes já em 2020. A massificação da internet e a internet of things aumentou de forma abrupta a quantidade de dados gerados, mas igualmente a necessidade de transformar e aceder a esses dados em tempos cada vez mais diminutos.

Big Data é o conceito tecnológico que agrega um conjunto de práticas e de ferramentas que permite lidar com esse problema, tendo 5 pilares fundamentais:

  • Volume (Armazenar , processar e aceder a grandes quantidades de dados)
  • Variedade (Cruzar diversas fontes de dados)
  • Velocidade (Velocidade de acesso, tratamento e processamento dos dados)
  • Veracidade (Garantia da veracidade da informação)
  • Valor (Utilidade da informação processada)

Esta “nova” capacidade de acesso e processamento de dados, permitiu um novo paradigma no marketing. Agora, é mais fácil analisar e perceber tendências, assim como possiveis “causas-efeito” das suas estratégias. Este tipo de análises tornaram-se indispensáveis para que as empresas consigam que as suas mensagens tenham uma maior percentagem de atingimento do seu target, resultado assim num acrescimo do seu ROI (Return on investment).

Como tirar partido do Big Data numa estratégia de Marketing?

A primeira coisa que deverá fazer é relacionar os dados, não estruturados, fornecidos pelas redes sociais com os dados de que já dispõe, como os detalhes dos  seus clientes.
Assim que o fizer será mais fácil observar e analisar as ações dos seus clientes e com isso tirar insights importantes que sirvam de base para as suas campanhas.

De seguida poderá começar a delinear estratégias de marketing focadas nos insights que observou. Ou seja, pode delinear campanhas de marketing assentes em conteúdo adequado às necessidades dos seus clientes, ou em grupos segmentados de clientes.

Chegou a hora da execução! Agora que já tem o conteúdo certo, baseado na análise que fez,  é altura de perceber a eficácia da sua estratégia.

Certamente já deve ter percebido que esta é a formula base para o sucesso, mas para o atingir é preciso estar constantemente a afiná-la. Ou seja, a partir deste ponto, a sua estratégia de Marketing Digital funcionará em ciclo: quanto mais insights recolher sobres os seus clientes, mais direcionadas e adequadas serão as suas estratégias e o seu conteúdo, que, por sua vez, fomentará ainda mais insights.

O Social Media Marketing é uma ferramenta que permite que qualquer empresa, indepedentemente do seu tamnho ou do mercado onde está inserida, perceba melhor os seus clientes e de que forma poderá adequar cada vez mais a sua oferta às necessidades dos seus clientes.
A verdade é que sem Big Data nada disto seria possível!

Rúben VanravanO impacto de Big Data no Social Media Marketing
read more

Também foi um gosto conhecer-te!

Nos primeiros meses do ano já estivemos em 5 Campus Universitários, do Minho à Caparica. Participámos na Talk-a-Bit, JORTEC, SEI, SINFO e na SET.

Aproveitámos bem o tempo para conhecer cada estudante e falar da Xpand IT. Trocámos ideias sobre diferentes funções, tecnologias, linguagens, áreas de negócio, mas também da nossa cultura, ADN e missão. Há tempo para tudo e por isso tivemos momentos relaxados e divertidos onde sorteamos prémios, criámos emoções com o nosso Sentiment Meter e testámos a força dos participantes!

Estes eventos são uma ótima oportunidade para conhecer os futuros profissionais da área tecnológica mas enquanto experts é, para nós, fundamental contribuir com o nosso know-how. A realidade é que os estudantes enfrentam vários desafios quando integram o mercado de trabalho, sendo que um dos deles é a relação entre a teoria e a prática. Isto é, de que forma isso se traduz no negócio e clientes. Com as nossas talks, pitchs e workshops mostrámos como se faz!

Talk A Bit – 26 de janeiro (Faculdade de Engenharia da Universidade do Porto, Porto)

Na Talk A Bit o Sérgio Viana, Digital Xperience Lead da Xpand IT, falou sobre inteligência artificial e o impacto que esta área tem quando criamos soluções digitais para os nossos clientes, com foco na experiência global.

JORTEC – 1 de fevereiro (Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa, Almada)

A JORTEC foi palco para a área de Big Data. Na Xpand IT somos orgulhosamente pioneiros na tecnologia em Portugal e os nossos experts Nuno Barreto, Big Data Lead da Xpand IT, e o Ricardo Cardante, Big Data Engineer, foram explicar como é o panorama atual e qual será o futuro desta área. Revê aqui o Live Stream.

SEI – 4 a 8 de fevereiro (Universidade do Minho, Braga)

A Semana da Engenharia Informática da Universidade do Minho é já uma participação clássica para a Xpand IT.

Este ano o grande tema foi Business Inteligence onde o Carlos Moreira, Senior BI & Big Data Consultant, e o Bruno Rebelo, Business Intelligence Developer, exploraram o tema com os estudantes.

SINFO – 18 a 22 de fevereiro (Instituto Superior Técnico, Lisboa)

Marcámos presença na SINFO pelo 4º ano consecutivo. Desta vez, levamos a expertise do Sérgio Viana, Digital Xperience Lead da Xpand IT, que falou sobre a área de Digital Xperience e a importância de um bom storytelling aliado à tecnologia mobile.

SET – 25 a 28 de fevereiro (Instituto Superior Técnico – Taguspark, Lisboa)

A Xpand IT marcou presença com a área de Data Science. A Joana Pinto, Data Scientist da Xpand IT, desmistificou o processo e jornada de um projeto desta área. Foi importante perceber quais os passos fundamentais para chegar ao sucesso!

 

Fiquem atentos às nossas redes sociais, especialmente Facebook e Instagram para novidades.

O nosso roadshow vai continuar! A próxima data é já durante o mês de março, dia 27. O Bruno Conde, Project Manager do produto Xray Cloud, vai estar presente no Instituto Politécnico de Viana do Castelo para os Open Days.

Já o mês de abril vai começar com a JobIT da FEUP – Faculdade de Engenharia da Universidade do Porto, no dia 3 de abril. De seguida, vamos estar na JobShop da FCUL – Faculdade de Ciências da Universidade de Lisboa, dia 11 de abril!

Catarina RochinhaTambém foi um gosto conhecer-te!
read more

8 razões para escolher soluções Atlassian na versão data center

Um data center é o ambiente que permite a agregação da infraestrutura necessária para manter em bom funcionamento todos os sistemas de uma organização, ou, neste caso, para efetuar o deploy de produtos e/ou aplicações. Os data centers são projetados para garantir o tráfego, o processamento e o armazenamento de enormes quantidades de dados, sendo que o da Atlassian foi especificamente concebido para funcionar como mais uma opção para os seus clientes, que poderão optar por efetuar o deploy dos produtos que utilizam, como Jira Software, Confluence ou Jira Service Desk, na cloud, no server ou no data center. Os seus cinco pilares principais são: a alta disponibilidade, a escalabilidade, o desempenho, a segurança e, claro, o custo.

Se utiliza ferramentas Atlassian, utilizá-las na opção de data center é, agora, uma hipótese. Mas será esta a melhor solução para a sua empresa? Descubra quais as 8 razões para escolher soluções Atlassian na versão data center e qual o melhor momento para fazer o upgrade.

Quais os benefícios do data center da Atlassian?

  1. Escalabilidade: o data center da Atlassian foi especificamente constituído para crescer à medida das necessidades das empresas. Poderá adicionar nodes ao seu cluster, sem se preocupar com perdas de performance ou com donwtimes (quando planear upgrades, por exemplo, poderá ativar a característica de read-only, que permitirá aos seus clientes continuarem a visualizar as páginas e a pesquisar enquanto os trabalhos de manutenção decorrem).
  2. Alta disponibilidade: o armazenamento de toda a informação em clusters ativos permite que o acesso por parte das equipas seja constante e ininterrupto, reduzindo falhas que possam existir por parte das aplicações empresariais.
  3. SAML 2.0: o data center da Atlassian utiliza este protocolo com o intuito de garantir a conformidade e simplificar a experiência de login. Desta forma, a Atlassian garante que o sistema de autenticação se encontra seguro (através de tokens específicos).
  4. Escolha de infraestrutura: no modelo de data center poderá optar por implementar as aplicações on-premise ou em fornecedores de IaaS, como Azure ou Amazon Web Services.
  5. Disaster Recovery: a Atlassian garante que o seu negócio poderá continuar a funcionar sem problemas, através de uma estratégia completa de Disaster Recovery, quer a interrupção de sistema tenha sido total ou parcial.
  6. Ecossistema verificado: todas as aplicações desenvolvidas em ambiente de data center são verificadas nos seus tempos de resposta, escala e bases de dados suportadas.
  7. Garantia de performance: à medida que a sua organização cresce, cresce também a necessidade de manter a qualidade do trabalho desenvolvido e da performance. No data center da Atlassian poderá eliminar todo o desperdício que atrasa a sua equipa (por exemplo, através do arquivamento de projetos, que lhe permite encontrar a informação que realmente lhe interessa).
  8. Controlo: poderá ter total controlo sobre as necessidades de compliance, de segurança e de regulamentação.

Quando deve fazer o upgrade?

O data center da Atlassian garante-lhe acesso às mesmas funcionalidades, aplicações e produtos do que o server. Para além disso, ambas as opções fornecem um controlo quase total sob os seus dados e a sua infraestrutura. No entanto, o data center apresenta algumas vantagens comparativamente – quando a sua empresa atinge um novo patamar de crescimento – já que, por exemplo, o server corre num único node e o data center corre em múltiplos nodes.

O data center foi, precisamente, projetado para acompanhar os clientes do modelo server,
à medida que estes crescem e a sua organização amadurece. Assim sendo, quando deve considerar fazer o upgrade para o data center? Tenha em conta as seguintes variáveis:

Número de utilizadores: quantos utilizadores acedem às suas aplicações numa base diária? Segundo a Atlassian, “aplicações como o Jira Software, o Confluence ou o Bitbucket necessitam de mais estabilidade quando atingem os 500 a 1000 utilizadores. No caso do Jira Service Desk, por norma, os upgrades acontecem quando se atinge os 50 utilizadores”.

Performance: à medida que a dimensão da sua empresa aumenta, também a performance tem de aumentar em proporcionalidade. Para garantir que a performance dos seus sistemas se mantem, deve avaliar se o número de utilizadores permite manter a mesma qualidade.

Downtime: é fundamental avaliar quais os custos de downtime para a sua empresa. Se considera que são custos elevados e que não os pode suportar, talvez a solução passe por avaliar o modelo de data center.

Administração: considera que passa demasiado tempo a gerir pedidos e a tratar de questões que deveriam ser simples? O data center oferece aos Administrators a possibilidade de simplificar inúmeras tarefas, tais como conceder e retirar acessos ou gerir pedidos de alteração de passwords.

Se precisa de avaliar qual a melhor opção para a sua empresa, não hesite em contactar-nos.

Ana Lamelas8 razões para escolher soluções Atlassian na versão data center
read more

Os 10 melhores eventos internacionais de Big Data em 2019

Big Data. Uma tendência, uma buzzword, ou uma necessidade?  Na Xpand IT acreditamos que pode ser um misto de todos estes conceitos e muito mais. Temas como inteligência artificial, Internet of Things, machine e deep learning ou data science entram no panorama tecnológico e começam a tornar-se apostas claras no investimento das empresas. Entre connosco no universo dos dados e descubra os 10 melhores eventos internacionais de Big Data em 2019.

1. Data Fest 2019

O Data Fest 2019 é uma espécie de festival constituído por 6 eventos de dimensões variáveis que acontecerão um pouco por toda a Escócia. Com temas fundamentais como data science ou inteligência artificial (IA), o objetivo deste festival é pensar a revolução dos dados, bem como a sua inovação.

Dos 6 eventos que constituem o Data Fest 2019, fazem parte:

  • Data Summit (conferência internacional que irá decorrer entre os dias 21 e 22 de março, no espaço The Assembly Rooms, em Edimburgo);
  • Data Talent (que pretende juntar estudantes de engenharia e profissionais das áreas de TI com o intuito de criar um evento de networking e discussão sobre temas tecnológicos variados. Irá decorrer no dia 19 de março, no Hilton Hotel, em Glasgow);
  • Fringe Events (séries de eventos como meetups, hackathons, debates e workshops, que pretende juntar profissionais de diversas indústrias. Decorrerá entre os dias 11 e 22 de março, um pouco por toda a Escócia);
  • Data Tech (evento que pretende juntar membros da indústria, do setor público ou das academias, com o intuito de realizar apresentações técnicas e de partilhar conhecimento. Este evento irá acontecer no dia 14 de março, no Museu Nacional da Escócia, em Edimburgo).
Data: ao longo de todo o mês de março
Local: Escócia – GB
Web: https://www.datafest.global

2. AI Tech World

Chama-se AI Tech World mas nem só de inteligência artificial se irá falar neste evento. Temas como big data, segurança na cloud, DevOps ou data centers estarão também na ordem de trabalhos desta conferência, bem como a importância da ética no desenvolvimento de soluções com recurso a IA.

Ao longo de dois dias poderá contar com as palestras mais inspiradoras, de alguns dos melhores profissionais que integram equipas de TI de topo, e parcerias com empresas como a Hitachi ou a MariaDB. 

Data: 12 e 13 de março
Local: ExCeL London, Londres – GB
Web: https://www.bigdataworld.com/ai-tech-world

3. Data Innovation Summit

Este ano realiza-se a quarta edição do Data Innovation Summit, que irá abordar temas específicos na área de big data, como data engeneering, machine learning, deep learning ou data management. Com 6 palcos e mais de 100 speakers, este será o maior evento sobre tecnologia e inovação a acontecer em países nórdicos, e um dos maiores em toda a Europa.

O objetivo deste evento de Big Data passa por juntar as empresas mais bem-sucedidas a nível mundial e os melhores profissionais da área, e debater novos modelos de negócio, formas de aumentar lucro e melhorar a satisfação dos clientes.

Data: 14 e 15 de março
Local: Kistamässan, Estocolomo – Suécia
Web: https://datainnovationsummit.com

4. DataWorks Summit

Ideias, insights e inovação. São estes os três conceitos que compõem o mood do DataWorks Summit, que irá realizar-se em Barcelona. Este é um evento que pretende discutir os principais avanços em áreas da tecnologia como Inteligência Artificial, Machine Learning, IoT ou Cloud, e cujo objetivo é juntar pioneiros destas áreas para, em conjunto, darem resposta às questões mais importantes.

Para além disso, o foco estará nas tecnologias open source, e como estas podem ajudar as organizações a alavancarem todos os seus processos de transformação digital.

Data: 18 e 19 de março
Local: Centre de Convencions Internacional de Barcelona, Barcelona – ES
Web: https://dataworkssummit.com/barcelona-2019/

5. Spark & AI Summit 2019

Ainda sem data definida para 2019, o Spark & AI Summit é um evento a não perder este ano, já que é o maior evento a nível mundial no que a Apache Spark diz respeito. Este ano, um dos principais focos será em Inteligência Artificial, tópico dentro do qual ser irá discutir, por exemplo, carros autónomos, reconhecimento de voz e imagem, chatbots inteligentes ou mesmo novas frameworks de deep learning.

Como a maior comunidade open source do mundo no universo de Big Data, Apache Spark é utilizado pelas maiores empresas a nível mundial, como eBay ou Netflix, o que faz deste um evento para manter no radar.

Data: TBC – inscrições abertas dia 8 de abril
Local: TBC, Amesterdão – NL
Web: https://databricks.com/sparkaisummit/europe

6. Strata Data Conference

A Strata Data Conference é uma conferência organizada em parceria pela O’Reilly e pela Cloudera, e, este ano, pretende ser o epicentro dos dados e dos negócios, oferecendo talks e trainings em inúmeras vertentes. Em 2019, esta conferência irá focar-se em inteligência artificial, ou não fosse esta uma das keywords do momento, mas também irá abordar temas tão abrangentes como a ética, a privacidade e a segurança dos dados.

Este evento promete colocar os participantes em contacto com os melhores profissionais das mais diversas áreas do mundo tecnológico, como data scientists, engenheiros, analistas, developers ou mesmo investigadores em áreas como IA ou IoT.

Data: 29 de abril a 2 de maio
Local: ExCeL London, Londres – GB
Web: https://conferences.oreilly.com/strata/strata-eu

7. AI & Big Data Expo

Londres e Amesterdão são as duas cidades europeias por onde o evento AI & Big Data Expo irá passar, e pode esperar temas como inteligência artificial, IoT, Blockchain, transformação digital ou mesmo cyber segurança.

Para esta conferência são esperados mais de 36,000 participantes e mais de 1,500 speakers de algumas das maiores empresas a nível mundial, tais como Google, Amazon, Coca-cola, Adidas, Uber, Twitter ou HP. Se pretende ter acesso a uma montra de nível internacional do que de melhor se faz nos departamentos de TI, opte por ir a este evento. Tem dois locais e duas datas à escolha:

Data Londres: 25 e 26 de abril
Local Londres: Olympia, Londres – GB
Web Londres: https://www.ai-expo.net/global/
Data Amesterdão: 19 e 20 de junho
Local Amesterdão: RAI, Amesterdão – NL
Web Amesterdão: https://www.ai-expo.net/europe/

8. Kafka Summit Londres

Se é Developer, Operator ou Data Scientist, este evento é para si. O Kafka Summit promete trazer talks com profissionais de empresas de referência no universo da tecnologia streaming, com o intuito de partilhar conhecimento e fomentar dinâmicas de networking. Como o próprio nome indica, este evento é o local indicado para contribuir para, mas também retirar conhecimento da comunidade dedicada à plataforma Apache Kafka.

A tecnologia Confluent disponibilizará, ainda, uma sessão de training, cujo objetivo é introduzir Apache Kafka aos seus novos utilizadores, explorando os princípios fundamentais e o desenvolvimento de aplicações.

Data: 13 e 14 de maio
Local: Park Plaza Westminster Bridge, Londres – UK
Web: https://kafka-summit.org/events/kafka-summit-london-2019/

9. J on the Beach

É developer ou DevOps? Trabalha com tecnologias de Big Data? Gosta de praia? Se a sua resposta foi sim a todas estas questões, este evento é, sem dúvida, para si. O J on the Beach (JOTB) é uma conferência que pretende fomentar a partilha de experiências e truques relacionados com o universo dos dados, que abordará temas como Data Visualisation, IoT & Embedded ou ainda Functional Programming, entre muitos outros tópicos.

Para além das talks, ainda poderá participar numa Hackathon cujo objetivo será desenvolver uma solução distribuída de Data Science. E o local? Uma belíssima praia de Marbella.

Data: 15 a 17 de maio
Local: Palacio de Congressos de Marbella, Marbella – ES 
Web: https://jonthebeach.com/

10. Gartner Data & Analytics Summit

O Gartner Data & Analytics Summit procura trazer uma maior clareza a questões já tão debatidas como a transformação digital, a inteligência empresarial ou mesmo os dados. O objetivo passo por partilhar novas estratégias e por dissecar quais as melhores práticas para que possa fazer da sua empresa uma vencedora nesta economia digital.

Para além de poder contar com uma grande componente de networking, ainda terá a oportunidade de aprender, hands-on, qual o plano de ações com mais resultados, com base em pesquisa feitas pela Gartner.

Data: 19 e 20 de novembro
Local: Hotel Kap Europa, Frankfurt – DE
Web: https://www.gartner.com/en/conferences/emea/data-analytics-germany

Se quiser saber mais sobre como as nossas soluções de Big Data podem ajudar o seu negócio, entre em contacto connosco aqui.

Ana LamelasOs 10 melhores eventos internacionais de Big Data em 2019
read more

Building the Future: juntos ativámos Portugal!

A primeira edição do evento Building the Future: Ativar Portugal realizou-se no passado mês de janeiro (entre os dias 29 e 30), e foi organizado pela Microsoft, em conjunto com a agência imatch.

Mais de 3.000 participantes, 100 oradores, 60 sessões e 50 parceiros. Foram estes os números de um dos eventos tecnológicos mais aguardados, que acabaram por revelar que o investimento na transformação digital é, de facto, uma das principais prioridades para um número bastante significativo de empresas. A Xpand IT teve o privilégio de fazer parte deste enorme sucesso, e pode afirmar que com o Building the Future: juntos ativámos Portugal!

Para Paula Braz, Marketing Manager da Xpand IT, “O Building the Future foi um evento extremamente interessante, já que permitiu criar (ou re-criar) uma visão de um futuro não tão longínquo, quer através de experiências proporcionadas por todos os parceiros através de diferentes sessões – desde as mais técnicas, por exemplo, como a nossa “Cognitive Lab”, na qual se ofereceu a possibilidade de aprender a desenvolver um bot, até às mais conceituais, como foi o caso das talks de Gerd Leonhard (escritor e fundador da Futures Agency), ou de Jim Stolze (líder ativo da comunidade TEDx e co-fundador da Aigency)”.

Enquanto parceira Microsoft, a Xpand IT teve a oportunidade de promover alguns dos temas abordados no evento, quer através da experiência de inteligência artificial aplicada à gamificação que desenvolveu, o Sentiment Meter, quer pela demonstração do Retail Bot, na área do Intelligent Day, ou mesmo pelas sessões dinamizadas por Jorge Borralho, Project Manager,  e Sérgio Viana, Digital Xperience Lead, da Xpand IT.

Para Sérgio Viana, Digital Xperience Lead da Xpand IT, “Abraçar a tecnologia e potenciá-la não só a favor do negócio, mas também das nossas capacidades humanas, é o caminho para construir soluções que marquem pela diferença. Não há que temer a inovação, mas sim utilizá-la com o propósito correto, alicerçada em valores éticos fundamentais e estruturais”.

Ana LamelasBuilding the Future: juntos ativámos Portugal!
read more