Latest news

Xpand IT entra no ranking FT1000: Europe’s Fastest Growing Companies

É com muito orgulho que a Xpand IT anuncia a sua entrada no ranking Europe’s Fastest Growing Companies, do reconhecido jornal internacional Financial Times! Com um crescimento sustentado que ultrapassou os 45% em 2018, a Xpand IT foi considerada uma das 1000 empresas em toda a Europa que mais depressa cresceu, tendo em conta os resultados consolidados entre 2014 e 2017.

Mais de 10 Milhões de faturação e cerca de 195 colaboradores foram os números que nos garantiram um lugar nesta lista, sendo que desde então já demos o salto para 15 Milhões de faturação e para mais de 245 colaboradores. Assim, das três empresas tecnológicas portuguesas presentes no ranking, a Xpand IT é a que apresenta melhores resultados a nível de faturação e de aquisição de novo talento.

Para Paulo Lopes, CEO & Senior Partner da Xpand IT, “Integrar o ranking Europeu FT 1000 é o reconhecimento do trabalho que temos vindo a desenvolver nos últimos anos. Somos reconhecidos pelo nosso know-how e expertise na área tecnologia, mas também por uma equipa e cultura únicas, focada na excelência e inovação, o que torna mais fácil atingirmos este tipo de resultados.”

O objetivo para este ano será manter a tendência de crescimento, não só através da expansão para novos mercados, mas também com o aumento da equipa, que em 2019 se espera que chegue ao redondo número de 300 Xpanders!

Ana LamelasXpand IT entra no ranking FT1000: Europe’s Fastest Growing Companies
read more

7 passos para implementar um projeto de Data Science

Entende-se por data science o conjunto de métodos e processos aplicados a um problema complexo e concreto, com o intuito de o resolver. Pode ser utilizada a inferência de dados, o desenvolvimento de algoritmos e a tecnologia para analisar os dados recolhidos e entender alguns fenómenos, identificando padrões. É necessário que os data scientists tenham conhecimentos matemáticos e tecnológicos, e que tenham o mindset certo para atingir os resultados esperados.

O objetivo, no fundo, é que, através da unificação de conceitos como a estatística, a análise de dados e o machine learning, se possam desvendar comportamentos, tendências ou inferências em determinados dados, que não seriam possíveis identificar mediante uma análise simples. É a descoberta de valiosos insights que permitirá às empresas tomar melhores decisões de negócio e potenciar investimentos importantes.

Neste blog post desvendamos 7 passos importantes para que um projeto de data science possa ser implementado de forma a alcançar o sucesso.

1. Definir o tópico de interesse /pain-points da empresa

Para dar início a um projeto de data science é necessário perceber o que se estará a tentar descobrir. Que problema apresenta a empresa ou que objetivos se pretende atingir? De que tempo a empresa dispõe para trabalhar neste projeto? Como irá ser medido o sucesso?

Por exemplo, a Netflix utiliza técnicas avançadas de análise de dados  para descobrir padrões de visualização por parte dos seus clientes, de forma a tomar decisões mais acertadas sobre as séries que produzirá de seguida; já a Google utiliza algoritmos de data science para aprimorar a colocação e demonstração de banners em display, seja publicidade ou re-targetting

2. Obter os dados necessários

Depois de definido o tópico de interesse, o foco passa a estar na recolha dos dados fundamentais para elaborar o projeto, provenientes das bases de dados disponíveis. Existem inúmeras fontes de dados, sendo que as mais comuns são bases de dados relacionais, sendo que existem também fontes de dados semi-estruturadas. Outra forma de recolher os dados necessários é efetuar as ligações adequadas a web APIs ou retirar diretamente dos websites que se pretendam eventualmente analisar (web scraping).

3. “Polir” os dados recolhidos

Este é o passo seguinte – e o que se revela mais natural – já que depois de extraídos os dados das suas bases originais, é necessário filtrá-los. Este processo é indispensável, uma vez que ao analisar dados sem relevância os resultados poderão ser desvirtuados.

Em alguns casos, será necessário alterar dados e colunas, para verificar se não existem variáveis em falta. Por isso, um dos passos a ter em conta é a junção de informação proveniente de diversas fontes, para que, no final, se possa trabalhar com uma boa base, criando um workflow eficiente.

É, também, conveniente que os data scientists tenham conhecimento acerca de algumas ferramentas, como Python ou R, que lhes permitam realizar a tarefa de “polir” os dados da forma mais eficiente.

4. Explorar os dados

Quando os dados extraídos estiverem prontos e “polidos”, é necessário proceder a uma análise. Cada tipo de fonte de dados tem características diferentes, o que implica que tenham um tratamento também diferente. Neste ponto, o fundamental é que se criem estatísticas descritivas e que se testem hipóteses – variáveis significantes.

Depois de testadas algumas variáveis, o próximo passo é colocar os dados obtidos num software de data visualisation, para que se consiga encontrar algum padrão ou tendência.  E, agora sim, podemos passar para a inclusão da inteligência artificial e do machine learning.

5. Criar modelos analíticos avançados

Esta é a parte em que se modelam os dados recolhidos, tratados e analisados. É o momento de criar modelos para que se possam, por exemplo, predizer resultados futuros. No fundo, é nesta fase que os data scientists utilizam fórmulas de regressão e algoritmos para que se possam criar modelos preditivos e prever valores e padrões futuros, de forma a generalizar ocorrências e a tornar mais eficientes as decisões.

6. Interpretar os dados / recolher insights

Encontramo-nos praticamente no último nível de implementação de um projeto de data science. É a fase em que é necessário interpretar os modelos definidos e descobrir insights importantes para o negócio – encontrar generalizações para aplicar em dados futuros – e responder ou endereçar as questões que foram colocadas no início do projeto.

O objetivo de um projeto deste género é, precisamente, encontrar padrões que ajudem a empresas a tomar decisões: caso se deva evitar um comportamento ou repetir ações que tenham resultados manifestamente positivos.

7. Comunicar os resultados

A apresentação é também bastante importante, já que tem de ser claro para os stakeholders (muitas vezes, pessoal não técnico) quais os resultados do projeto. O data scientist tem de ter o “dom” de contar uma história, para que todo o processo faça sentido e para que encaixe na resolução do problema da empresa.

Se pretende saber mais sobre projetos de data science ou se procura aconselhamento, não hesite em contactar-nos.

Ana Lamelas7 passos para implementar um projeto de Data Science
read more

Node.js: a plataforma JavaScript utilizada pela Netflix e Uber

O crescimento a que temos assistido em relação ao JavaScript é difícil de esconder. Ao longo dos anos tem-se conseguido oferecer centenas – senão milhares – de frameworks e bibliotecas que ajudam os developers e as empresas a criar sites, portais, aplicações interativas, ágeis e com interfaces modernas. Se somarmos a isto o facto de o JavaScript ser independente de outras plataformas, fácil de aprender, suportado por uma comunidade sempre crescente, entre muitas outras vantagens, é fácil perceber porquê.

No entanto, durante muito tempo, o JavaScript foi uma linguagem exclusivamente orientada para client-side e nunca conseguiu ser uma alternativa para o backend. Pelo menos até 2009, ano em que foi lançada a primeira versão do Node.js. Pela primeira vez na história do JavaScript apareceu uma alternativa viável para backend.

Algo que é importante desmistificar é o receio que muitas empresas ainda têm sobre esta alternativa aos backend mais tradicionais (Java, .NET, etc), no seu mundo de aplicações Enterprise, mesmo quando empresas como Netflix, Trello, PayPal, Linkedin, Uber, Walmart, NASA, Intel, Twitter, entre muitos outros exemplos, já usam com sucesso Node.js nas suas infraestruturas, sendo que esta lista cresce de dia para dia.

Para quem ainda não conhece Node.js, é importante salientar algumas das suas maiores vantagens:

  • Ideal para a construção de aplicações real-time;
  • Facilita a visão do programador full stack em Javascript (visto que a linguagem para backend e frontend é a mesma);
  • Diminui o tempo de desenvolvimento, graças à visão full stack;
  • É suportado por uma comunidade gigante que contribui com novas bibliotecas e updates a um ritmo alucinante;
  • A execução do código é extremamente rápida;
  • Ideal em arquiteturas orientadas a micro serviços.

Voltamos então à questão que aqui queremos endereçar: porque é que as empresas devem adotar Node.js para as suas aplicações? Respondendo sucintamente, porque foi desenhado para aplicações de escala e orientado para uma visão moderna de como desenvolver aplicações com arquiteturas complexas.

Como é que, na realidade, se concretizam essas capacidades é a parte mais importante.

A escalabilidade é essencial na grande maioria das aplicações empresariais atuais e o Node.js responde a isso oferecendo de raíz um módulo de clustering com balanceamento de carga em múltiplos cores de CPU. Associando o poder de clustering a uma solução single-threaded, non-blocking, orientada a eventos e callbacks, permite que trate de múltiplas conexões em simultâneo, conseguindo desta forma o processamento de milhões de conexões concorrentes.

O facto de ser single-thread é, por vezes, encarado como uma limitação por, em teoria, poder tornar a aplicação mais lenta, mas isso não é mais do que um mito. Ao contrário de soluções que não são orientadas a eventos e onde são necessárias múltiplas threads para lidar com múltiplos pedidos, sendo que o número de threads em paralelo é limitado, em Node.js esse limite não existe. Desde que exista memória e o kernel assim o permita, podemos processar qualquer número de pedidos em simultâneo sem problema.

Existe também o receio de muitas empresas colocarem o seu código na Cloud, o que impediria a utilização do npm (Node Package Manager). Para endereçar esta questão, foi criada uma versão Enterprise que pode ser instalada e mantida na própria infraestrutura da empresa, mantendo assim o seu registo interno de módulos, obedecendo aos requisitos mais rígidos de segurança que possam existir.

Para além disso, existe ainda a questão do suporte a longo prazo. Esta será sempre uma preocupação nas soluções Enterprise, mas a verdade é que o Node.js também garante esse suporte.

Cada versão major do Node.js contará com suporte ativo durante 18 meses, desde o período em que entra em LTS (Long Time Support), passando depois para um regime de manutenção com a duração de 12 meses extra. Durante este período não haverá qualquer inclusão de novas funcionalidades na versão utilizada, apenas a correção de bugs e atualizações de segurança. Desta forma, o problema que poderia existir nas soluções desenvolvidas com recurso a Node.js porque, por não terem longevidade, poderiam deixar de ter suporte, deixa de fazer sentido.

Foi com base em toda esta informação que as empresas anteriormente referidas decidiram fazer a sua transição para esta tecnologia. O que é que ganharam?

  • Netflix: tempos de carregamento reduzidos em cerca de 1 minuto;
  • LinkedIn: reconstruiu o seu core dos serviços mobile recorrendo a Node.js, com a aplicação a correr 20 vezes mais rápido e com uma integração muito melhor entre backend e frontend, num altura em que o Node.js tinha, apenas, um ano de desenvolvimento;
  • PayPal: migrou todas as suas web applications de Java para Javascript e Node.js, e viu os seus programadores escreverem menos 33% das linhas de código, utilizar menos 40% dos ficheiros e levar metade do tempo a construir a sua aplicação (também com recurso a menos pessoas). Os tempos de resposta diminuíram em cerca de 35%, o que implicou páginas a serem devolvidas com uma melhoria de 200ms;
  • Uber: montou o seu sistema de relacionamento entre condutores e passageiros com Node.js devido às suas capacidades de resposta rápida, grande poder de processamento de pedidos e facilidade em ter uma arquitetura distribuída.

Com isto não quero dizer que o Node.js é uma “silver bullet”. Pode não ser a melhor solução para todos os casos, mas faz sentido avaliar as suas potencialidades e perceber as mais valias que podemos retirar desta tecnologia.

Francisco Costa

Enterprise Solutions Lead

Francisco CostaNode.js: a plataforma JavaScript utilizada pela Netflix e Uber
read more

O impacto de Big Data no Social Media Marketing

O social media nasceu com o intuito de criar ligações remotas entre colegas, amigos ou conhecidos que quisessem partilhar conhecimento e informação. Apesar desse propósito ainda constar da sua génese, a verdade é que o social media tem vindo a evoluir exponencialmente ano após ano, tendo-se tornado numa poderosa ferramenta de comunicação bi-direcional entre empresas e clientes.

Atualmente, o Social Media não só permite que as empresas comuniquem a sua marca e os seus produtos numa ótica de crescimento da sua base de clientes, mas permite, também, a  recolha de uma infinidade de inputs sobre os seus utilizadores, sejam eles seus clientes ou não.

Por essa razão, cada like, comment ou share, ajuda a que as empresas  percebam melhor os seus clientes e os seus comportamentos, através das interações que estes têm perante determinados conteúdos. Toda esta análise comportamental e partilha de informação gera um enorme volume de dados, algo apenas possível de armazenar e processar com recurso a tecnologias “Big Data”.

Na realidade, Big Data tem impactado quase todos os setores do nosso quotidiano,  alterando a forma como as pessoas comunicam, trabalham ou até mesmo como se divertem.

Ao longo das últimas décadas, a quantidade de dados gerados tem crescido de forma exponencial, duplicando a cada dois anos, e podendo chegar aos 44 triliões de gigabytes já em 2020. A massificação da internet e a internet of things aumentou de forma abrupta a quantidade de dados gerados, mas igualmente a necessidade de transformar e aceder a esses dados em tempos cada vez mais diminutos.

Big Data é o conceito tecnológico que agrega um conjunto de práticas e de ferramentas que permite lidar com esse problema, tendo 5 pilares fundamentais:

  • Volume (Armazenar , processar e aceder a grandes quantidades de dados)
  • Variedade (Cruzar diversas fontes de dados)
  • Velocidade (Velocidade de acesso, tratamento e processamento dos dados)
  • Veracidade (Garantia da veracidade da informação)
  • Valor (Utilidade da informação processada)

Esta “nova” capacidade de acesso e processamento de dados, permitiu um novo paradigma no marketing. Agora, é mais fácil analisar e perceber tendências, assim como possiveis “causas-efeito” das suas estratégias. Este tipo de análises tornaram-se indispensáveis para que as empresas consigam que as suas mensagens tenham uma maior percentagem de atingimento do seu target, resultado assim num acrescimo do seu ROI (Return on investment).

Como tirar partido do Big Data numa estratégia de Marketing?

A primeira coisa que deverá fazer é relacionar os dados, não estruturados, fornecidos pelas redes sociais com os dados de que já dispõe, como os detalhes dos  seus clientes.
Assim que o fizer será mais fácil observar e analisar as ações dos seus clientes e com isso tirar insights importantes que sirvam de base para as suas campanhas.

De seguida poderá começar a delinear estratégias de marketing focadas nos insights que observou. Ou seja, pode delinear campanhas de marketing assentes em conteúdo adequado às necessidades dos seus clientes, ou em grupos segmentados de clientes.

Chegou a hora da execução! Agora que já tem o conteúdo certo, baseado na análise que fez,  é altura de perceber a eficácia da sua estratégia.

Certamente já deve ter percebido que esta é a formula base para o sucesso, mas para o atingir é preciso estar constantemente a afiná-la. Ou seja, a partir deste ponto, a sua estratégia de Marketing Digital funcionará em ciclo: quanto mais insights recolher sobres os seus clientes, mais direcionadas e adequadas serão as suas estratégias e o seu conteúdo, que, por sua vez, fomentará ainda mais insights.

O Social Media Marketing é uma ferramenta que permite que qualquer empresa, indepedentemente do seu tamnho ou do mercado onde está inserida, perceba melhor os seus clientes e de que forma poderá adequar cada vez mais a sua oferta às necessidades dos seus clientes.
A verdade é que sem Big Data nada disto seria possível!

Rúben VanravanO impacto de Big Data no Social Media Marketing
read more

Também foi um gosto conhecer-te!

Nos primeiros meses do ano já estivemos em 5 Campus Universitários, do Minho à Caparica. Participámos na Talk-a-Bit, JORTEC, SEI, SINFO e na SET.

Aproveitámos bem o tempo para conhecer cada estudante e falar da Xpand IT. Trocámos ideias sobre diferentes funções, tecnologias, linguagens, áreas de negócio, mas também da nossa cultura, ADN e missão. Há tempo para tudo e por isso tivemos momentos relaxados e divertidos onde sorteamos prémios, criámos emoções com o nosso Sentiment Meter e testámos a força dos participantes!

Estes eventos são uma ótima oportunidade para conhecer os futuros profissionais da área tecnológica mas enquanto experts é, para nós, fundamental contribuir com o nosso know-how. A realidade é que os estudantes enfrentam vários desafios quando integram o mercado de trabalho, sendo que um dos deles é a relação entre a teoria e a prática. Isto é, de que forma isso se traduz no negócio e clientes. Com as nossas talks, pitchs e workshops mostrámos como se faz!

Talk A Bit – 26 de janeiro (Faculdade de Engenharia da Universidade do Porto, Porto)

Na Talk A Bit o Sérgio Viana, Digital Xperience Lead da Xpand IT, falou sobre inteligência artificial e o impacto que esta área tem quando criamos soluções digitais para os nossos clientes, com foco na experiência global.

JORTEC – 1 de fevereiro (Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa, Almada)

A JORTEC foi palco para a área de Big Data. Na Xpand IT somos orgulhosamente pioneiros na tecnologia em Portugal e os nossos experts Nuno Barreto, Big Data Lead da Xpand IT, e o Ricardo Cardante, Big Data Engineer, foram explicar como é o panorama atual e qual será o futuro desta área. Revê aqui o Live Stream.

SEI – 4 a 8 de fevereiro (Universidade do Minho, Braga)

A Semana da Engenharia Informática da Universidade do Minho é já uma participação clássica para a Xpand IT.

Este ano o grande tema foi Business Inteligence onde o Carlos Moreira, Senior BI & Big Data Consultant, e o Bruno Rebelo, Business Intelligence Developer, exploraram o tema com os estudantes.

SINFO – 18 a 22 de fevereiro (Instituto Superior Técnico, Lisboa)

Marcámos presença na SINFO pelo 4º ano consecutivo. Desta vez, levamos a expertise do Sérgio Viana, Digital Xperience Lead da Xpand IT, que falou sobre a área de Digital Xperience e a importância de um bom storytelling aliado à tecnologia mobile.

SET – 25 a 28 de fevereiro (Instituto Superior Técnico – Taguspark, Lisboa)

A Xpand IT marcou presença com a área de Data Science. A Joana Pinto, Data Scientist da Xpand IT, desmistificou o processo e jornada de um projeto desta área. Foi importante perceber quais os passos fundamentais para chegar ao sucesso!

 

Fiquem atentos às nossas redes sociais, especialmente Facebook e Instagram para novidades.

O nosso roadshow vai continuar! A próxima data é já durante o mês de março, dia 27. O Bruno Conde, Project Manager do produto Xray Cloud, vai estar presente no Instituto Politécnico de Viana do Castelo para os Open Days.

Já o mês de abril vai começar com a JobIT da FEUP – Faculdade de Engenharia da Universidade do Porto, no dia 3 de abril. De seguida, vamos estar na JobShop da FCUL – Faculdade de Ciências da Universidade de Lisboa, dia 11 de abril!

Catarina RochinhaTambém foi um gosto conhecer-te!
read more

8 razões para escolher soluções Atlassian na versão data center

Um data center é o ambiente que permite a agregação da infraestrutura necessária para manter em bom funcionamento todos os sistemas de uma organização, ou, neste caso, para efetuar o deploy de produtos e/ou aplicações. Os data centers são projetados para garantir o tráfego, o processamento e o armazenamento de enormes quantidades de dados, sendo que o da Atlassian foi especificamente concebido para funcionar como mais uma opção para os seus clientes, que poderão optar por efetuar o deploy dos produtos que utilizam, como Jira Software, Confluence ou Jira Service Desk, na cloud, no server ou no data center. Os seus cinco pilares principais são: a alta disponibilidade, a escalabilidade, o desempenho, a segurança e, claro, o custo.

Se utiliza ferramentas Atlassian, utilizá-las na opção de data center é, agora, uma hipótese. Mas será esta a melhor solução para a sua empresa? Descubra quais as 8 razões para escolher soluções Atlassian na versão data center e qual o melhor momento para fazer o upgrade.

Quais os benefícios do data center da Atlassian?

  1. Escalabilidade: o data center da Atlassian foi especificamente constituído para crescer à medida das necessidades das empresas. Poderá adicionar nodes ao seu cluster, sem se preocupar com perdas de performance ou com donwtimes (quando planear upgrades, por exemplo, poderá ativar a característica de read-only, que permitirá aos seus clientes continuarem a visualizar as páginas e a pesquisar enquanto os trabalhos de manutenção decorrem).
  2. Alta disponibilidade: o armazenamento de toda a informação em clusters ativos permite que o acesso por parte das equipas seja constante e ininterrupto, reduzindo falhas que possam existir por parte das aplicações empresariais.
  3. SAML 2.0: o data center da Atlassian utiliza este protocolo com o intuito de garantir a conformidade e simplificar a experiência de login. Desta forma, a Atlassian garante que o sistema de autenticação se encontra seguro (através de tokens específicos).
  4. Escolha de infraestrutura: no modelo de data center poderá optar por implementar as aplicações on-premise ou em fornecedores de IaaS, como Azure ou Amazon Web Services.
  5. Disaster Recovery: a Atlassian garante que o seu negócio poderá continuar a funcionar sem problemas, através de uma estratégia completa de Disaster Recovery, quer a interrupção de sistema tenha sido total ou parcial.
  6. Ecossistema verificado: todas as aplicações desenvolvidas em ambiente de data center são verificadas nos seus tempos de resposta, escala e bases de dados suportadas.
  7. Garantia de performance: à medida que a sua organização cresce, cresce também a necessidade de manter a qualidade do trabalho desenvolvido e da performance. No data center da Atlassian poderá eliminar todo o desperdício que atrasa a sua equipa (por exemplo, através do arquivamento de projetos, que lhe permite encontrar a informação que realmente lhe interessa).
  8. Controlo: poderá ter total controlo sobre as necessidades de compliance, de segurança e de regulamentação.

Quando deve fazer o upgrade?

O data center da Atlassian garante-lhe acesso às mesmas funcionalidades, aplicações e produtos do que o server. Para além disso, ambas as opções fornecem um controlo quase total sob os seus dados e a sua infraestrutura. No entanto, o data center apresenta algumas vantagens comparativamente – quando a sua empresa atinge um novo patamar de crescimento – já que, por exemplo, o server corre num único node e o data center corre em múltiplos nodes.

O data center foi, precisamente, projetado para acompanhar os clientes do modelo server,
à medida que estes crescem e a sua organização amadurece. Assim sendo, quando deve considerar fazer o upgrade para o data center? Tenha em conta as seguintes variáveis:

Número de utilizadores: quantos utilizadores acedem às suas aplicações numa base diária? Segundo a Atlassian, “aplicações como o Jira Software, o Confluence ou o Bitbucket necessitam de mais estabilidade quando atingem os 500 a 1000 utilizadores. No caso do Jira Service Desk, por norma, os upgrades acontecem quando se atinge os 50 utilizadores”.

Performance: à medida que a dimensão da sua empresa aumenta, também a performance tem de aumentar em proporcionalidade. Para garantir que a performance dos seus sistemas se mantem, deve avaliar se o número de utilizadores permite manter a mesma qualidade.

Downtime: é fundamental avaliar quais os custos de downtime para a sua empresa. Se considera que são custos elevados e que não os pode suportar, talvez a solução passe por avaliar o modelo de data center.

Administração: considera que passa demasiado tempo a gerir pedidos e a tratar de questões que deveriam ser simples? O data center oferece aos Administrators a possibilidade de simplificar inúmeras tarefas, tais como conceder e retirar acessos ou gerir pedidos de alteração de passwords.

Se precisa de avaliar qual a melhor opção para a sua empresa, não hesite em contactar-nos.

Ana Lamelas8 razões para escolher soluções Atlassian na versão data center
read more

Os 10 melhores eventos internacionais de Big Data em 2019

Big Data. Uma tendência, uma buzzword, ou uma necessidade?  Na Xpand IT acreditamos que pode ser um misto de todos estes conceitos e muito mais. Temas como inteligência artificial, Internet of Things, machine e deep learning ou data science entram no panorama tecnológico e começam a tornar-se apostas claras no investimento das empresas. Entre connosco no universo dos dados e descubra os 10 melhores eventos internacionais de Big Data em 2019.

1. Data Fest 2019

O Data Fest 2019 é uma espécie de festival constituído por 6 eventos de dimensões variáveis que acontecerão um pouco por toda a Escócia. Com temas fundamentais como data science ou inteligência artificial (IA), o objetivo deste festival é pensar a revolução dos dados, bem como a sua inovação.

Dos 6 eventos que constituem o Data Fest 2019, fazem parte:

  • Data Summit (conferência internacional que irá decorrer entre os dias 21 e 22 de março, no espaço The Assembly Rooms, em Edimburgo);
  • Data Talent (que pretende juntar estudantes de engenharia e profissionais das áreas de TI com o intuito de criar um evento de networking e discussão sobre temas tecnológicos variados. Irá decorrer no dia 19 de março, no Hilton Hotel, em Glasgow);
  • Fringe Events (séries de eventos como meetups, hackathons, debates e workshops, que pretende juntar profissionais de diversas indústrias. Decorrerá entre os dias 11 e 22 de março, um pouco por toda a Escócia);
  • Data Tech (evento que pretende juntar membros da indústria, do setor público ou das academias, com o intuito de realizar apresentações técnicas e de partilhar conhecimento. Este evento irá acontecer no dia 14 de março, no Museu Nacional da Escócia, em Edimburgo).
Data: ao longo de todo o mês de março
Local: Escócia – GB
Web: https://www.datafest.global

2. AI Tech World

Chama-se AI Tech World mas nem só de inteligência artificial se irá falar neste evento. Temas como big data, segurança na cloud, DevOps ou data centers estarão também na ordem de trabalhos desta conferência, bem como a importância da ética no desenvolvimento de soluções com recurso a IA.

Ao longo de dois dias poderá contar com as palestras mais inspiradoras, de alguns dos melhores profissionais que integram equipas de TI de topo, e parcerias com empresas como a Hitachi ou a MariaDB. 

Data: 12 e 13 de março
Local: ExCeL London, Londres – GB
Web: https://www.bigdataworld.com/ai-tech-world

3. Data Innovation Summit

Este ano realiza-se a quarta edição do Data Innovation Summit, que irá abordar temas específicos na área de big data, como data engeneering, machine learning, deep learning ou data management. Com 6 palcos e mais de 100 speakers, este será o maior evento sobre tecnologia e inovação a acontecer em países nórdicos, e um dos maiores em toda a Europa.

O objetivo deste evento de Big Data passa por juntar as empresas mais bem-sucedidas a nível mundial e os melhores profissionais da área, e debater novos modelos de negócio, formas de aumentar lucro e melhorar a satisfação dos clientes.

Data: 14 e 15 de março
Local: Kistamässan, Estocolomo – Suécia
Web: https://datainnovationsummit.com

4. DataWorks Summit

Ideias, insights e inovação. São estes os três conceitos que compõem o mood do DataWorks Summit, que irá realizar-se em Barcelona. Este é um evento que pretende discutir os principais avanços em áreas da tecnologia como Inteligência Artificial, Machine Learning, IoT ou Cloud, e cujo objetivo é juntar pioneiros destas áreas para, em conjunto, darem resposta às questões mais importantes.

Para além disso, o foco estará nas tecnologias open source, e como estas podem ajudar as organizações a alavancarem todos os seus processos de transformação digital.

Data: 18 e 19 de março
Local: Centre de Convencions Internacional de Barcelona, Barcelona – ES
Web: https://dataworkssummit.com/barcelona-2019/

5. Spark & AI Summit 2019

Ainda sem data definida para 2019, o Spark & AI Summit é um evento a não perder este ano, já que é o maior evento a nível mundial no que a Apache Spark diz respeito. Este ano, um dos principais focos será em Inteligência Artificial, tópico dentro do qual ser irá discutir, por exemplo, carros autónomos, reconhecimento de voz e imagem, chatbots inteligentes ou mesmo novas frameworks de deep learning.

Como a maior comunidade open source do mundo no universo de Big Data, Apache Spark é utilizado pelas maiores empresas a nível mundial, como eBay ou Netflix, o que faz deste um evento para manter no radar.

Data: TBC – inscrições abertas dia 8 de abril
Local: TBC, Amesterdão – NL
Web: https://databricks.com/sparkaisummit/europe

6. Strata Data Conference

A Strata Data Conference é uma conferência organizada em parceria pela O’Reilly e pela Cloudera, e, este ano, pretende ser o epicentro dos dados e dos negócios, oferecendo talks e trainings em inúmeras vertentes. Em 2019, esta conferência irá focar-se em inteligência artificial, ou não fosse esta uma das keywords do momento, mas também irá abordar temas tão abrangentes como a ética, a privacidade e a segurança dos dados.

Este evento promete colocar os participantes em contacto com os melhores profissionais das mais diversas áreas do mundo tecnológico, como data scientists, engenheiros, analistas, developers ou mesmo investigadores em áreas como IA ou IoT.

Data: 29 de abril a 2 de maio
Local: ExCeL London, Londres – GB
Web: https://conferences.oreilly.com/strata/strata-eu

7. AI & Big Data Expo

Londres e Amesterdão são as duas cidades europeias por onde o evento AI & Big Data Expo irá passar, e pode esperar temas como inteligência artificial, IoT, Blockchain, transformação digital ou mesmo cyber segurança.

Para esta conferência são esperados mais de 36,000 participantes e mais de 1,500 speakers de algumas das maiores empresas a nível mundial, tais como Google, Amazon, Coca-cola, Adidas, Uber, Twitter ou HP. Se pretende ter acesso a uma montra de nível internacional do que de melhor se faz nos departamentos de TI, opte por ir a este evento. Tem dois locais e duas datas à escolha:

Data Londres: 25 e 26 de abril
Local Londres: Olympia, Londres – GB
Web Londres: https://www.ai-expo.net/global/
Data Amesterdão: 19 e 20 de junho
Local Amesterdão: RAI, Amesterdão – NL
Web Amesterdão: https://www.ai-expo.net/europe/

8. Kafka Summit Londres

Se é Developer, Operator ou Data Scientist, este evento é para si. O Kafka Summit promete trazer talks com profissionais de empresas de referência no universo da tecnologia streaming, com o intuito de partilhar conhecimento e fomentar dinâmicas de networking. Como o próprio nome indica, este evento é o local indicado para contribuir para, mas também retirar conhecimento da comunidade dedicada à plataforma Apache Kafka.

A tecnologia Confluent disponibilizará, ainda, uma sessão de training, cujo objetivo é introduzir Apache Kafka aos seus novos utilizadores, explorando os princípios fundamentais e o desenvolvimento de aplicações.

Data: 13 e 14 de maio
Local: Park Plaza Westminster Bridge, Londres – UK
Web: https://kafka-summit.org/events/kafka-summit-london-2019/

9. J on the Beach

É developer ou DevOps? Trabalha com tecnologias de Big Data? Gosta de praia? Se a sua resposta foi sim a todas estas questões, este evento é, sem dúvida, para si. O J on the Beach (JOTB) é uma conferência que pretende fomentar a partilha de experiências e truques relacionados com o universo dos dados, que abordará temas como Data Visualisation, IoT & Embedded ou ainda Functional Programming, entre muitos outros tópicos.

Para além das talks, ainda poderá participar numa Hackathon cujo objetivo será desenvolver uma solução distribuída de Data Science. E o local? Uma belíssima praia de Marbella.

Data: 15 a 17 de maio
Local: Palacio de Congressos de Marbella, Marbella – ES 
Web: https://jonthebeach.com/

10. Gartner Data & Analytics Summit

O Gartner Data & Analytics Summit procura trazer uma maior clareza a questões já tão debatidas como a transformação digital, a inteligência empresarial ou mesmo os dados. O objetivo passo por partilhar novas estratégias e por dissecar quais as melhores práticas para que possa fazer da sua empresa uma vencedora nesta economia digital.

Para além de poder contar com uma grande componente de networking, ainda terá a oportunidade de aprender, hands-on, qual o plano de ações com mais resultados, com base em pesquisa feitas pela Gartner.

Data: 19 e 20 de novembro
Local: Hotel Kap Europa, Frankfurt – DE
Web: https://www.gartner.com/en/conferences/emea/data-analytics-germany

Se quiser saber mais sobre como as nossas soluções de Big Data podem ajudar o seu negócio, entre em contacto connosco aqui.

Ana LamelasOs 10 melhores eventos internacionais de Big Data em 2019
read more

Building the Future: juntos ativámos Portugal!

A primeira edição do evento Building the Future: Ativar Portugal realizou-se no passado mês de janeiro (entre os dias 29 e 30), e foi organizado pela Microsoft, em conjunto com a agência imatch.

Mais de 3.000 participantes, 100 oradores, 60 sessões e 50 parceiros. Foram estes os números de um dos eventos tecnológicos mais aguardados, que acabaram por revelar que o investimento na transformação digital é, de facto, uma das principais prioridades para um número bastante significativo de empresas. A Xpand IT teve o privilégio de fazer parte deste enorme sucesso, e pode afirmar que com o Building the Future: juntos ativámos Portugal!

Para Paula Braz, Marketing Manager da Xpand IT, “O Building the Future foi um evento extremamente interessante, já que permitiu criar (ou re-criar) uma visão de um futuro não tão longínquo, quer através de experiências proporcionadas por todos os parceiros através de diferentes sessões – desde as mais técnicas, por exemplo, como a nossa “Cognitive Lab”, na qual se ofereceu a possibilidade de aprender a desenvolver um bot, até às mais conceituais, como foi o caso das talks de Gerd Leonhard (escritor e fundador da Futures Agency), ou de Jim Stolze (líder ativo da comunidade TEDx e co-fundador da Aigency)”.

Enquanto parceira Microsoft, a Xpand IT teve a oportunidade de promover alguns dos temas abordados no evento, quer através da experiência de inteligência artificial aplicada à gamificação que desenvolveu, o Sentiment Meter, quer pela demonstração do Retail Bot, na área do Intelligent Day, ou mesmo pelas sessões dinamizadas por Jorge Borralho, Project Manager,  e Sérgio Viana, Digital Xperience Lead, da Xpand IT.

Para Sérgio Viana, Digital Xperience Lead da Xpand IT, “Abraçar a tecnologia e potenciá-la não só a favor do negócio, mas também das nossas capacidades humanas, é o caminho para construir soluções que marquem pela diferença. Não há que temer a inovação, mas sim utilizá-la com o propósito correto, alicerçada em valores éticos fundamentais e estruturais”.

Ana LamelasBuilding the Future: juntos ativámos Portugal!
read more

A Xpand IT na WSO2 Con 2018

A WSO2 Con, conferência oficial da tecnologia WSO2, aconteceu este ano em três locais a nível mundial: nos EUA (São Francisco) em julho; na Ásia (Colombo) em agosto; e na Europa (Londres) em novembro. Como parceiro certificado e revendedor WSO2, a Xpand IT marcou a sua presença no evento Europeu, entre os dias 13 e 15 de novembro, no hotel Hilton London Bankside.

A edição europeia da WSO2 Con de 2018 focou-se essencialmente na visão da WSO2 sobre Integração Ágil e contextos de negócio orientados às API’s, num mundo onde as necessidades de integração estão a crescer com a proliferação de sistemas e aplicações.

Os três dias de apresentações cobriram a visão estratégica da WSO2 sobre integração, as suas definições arquiteturais e aplicabilidade, capacidades técnicas e aplicações de negócios dos seus produtos, bem como casos de sucesso de implementações WSO2 apresentadas pelos próprios clientes. Os intervalos durante as manhãs, horas de almoço e tardes também serviram para criar um ambiente de networking entre parceiros e clientes.

Adicionalmente, estava disponível um “Oxygen Bar”, onde vários experts de todas as áreas tecnológicas da WSO2 se mostraram sempre disponíveis para qualquer esclarecimento adicional sobre os produtos e sobre a sua utilização.

Dia 1 – Transformação Digital

A manhã do primeiro dia foi preenchida com várias keynotes, sendo o primeiro apresentado pelo atual CEO da WSO2, Tyler Jewell. Nesta keynote foi apresentada a visão estratégica da WSO2 para os próximos anos, reforçando a tendência na integração e as razões que justificam, cada vez mais, uma abordagem de “API first” pelas organizações. Esta mesma visão foi corroborada por Massimo Pezzini, Vice-Presidente da Gartner, com um olhar sobre o HIP (Hybrid Integration Platform) como um facilitador digital para as organizações. Da parte da tarde, existiram sessões em três contextos diferenciados, cada um com o seu tópico: a sala vermelha com Integração e Arquitetura, a sala amarela com Stream Processing e Identity Management, e a sala verde com Open Banking e casos de sucesso.

Dia 2 – Agilidade na Integração

Tendo a Agilidade como tema, o segundo dia começou com duas keynotes muito interessantes por parte de Aria van Bannekum, fundador do Agile Manifesto, e também do CTO e Co-fundador da WSO2, Paul Fremantle. Da parte da tarde iniciaram-se novamente as três sessões paralelas: na sala vermelha o foco foi em API Management; na sala verde, casos de sucesso centrados no ecossistema de API’s; e na sala amarela demonstrações completas de produtos WSO2.

Dia 3 – Ballerina

O último dia da conferência foi integrado com o evento Ballerina Day 2018. Apesar de complementado com sessões exclusivas para debater assuntos relacionados com o novo programa de parceiros, este dia foi completamente focado em Ballerina, uma linguagem de programação open-source e cloud native, que tem sido desenvolvida para WSO2 ao longo dos últimos três anos. Esta linguagem de programação tem como objetivo endereçar a falha criada por produtos middleware “não-ágeis” e pelas atuais linguagens de programação, que são ainda demasiado complexas para lidar com cenários de integração. A Ballerina promete simplificar esta complexidade e promover a agilidade, oferecendo capacidades de middleware com o mínimo de código possível.

Está também orientada para ambientes na cloud e DevOps, por isso, permite a integração com Docker e Kubernetes.

Fique com algumas fotografias captadas durante o evento.

  • WSO2
  • WSO2
  • WSO2
  • WSO2
  • WSO2
  • WSO2

A Xpand IT tem o gosto de realizar o primeiro evento com o cunho da tecnologia WSO2 em Portugal, enquanto Certified Partner e Value-added Reseller no território nacional: o WSO2 Connect 2019Inscreva-se neste evento gratuito, e venha conhecer a plataforma que lhe permitirá colocar a sua empresa na liderança da transformação digital.

Ana LamelasA Xpand IT na WSO2 Con 2018
read more

Vantagens de implementar Big Data na sua empresa

Big Data não é uma ‘tendência’. É uma necessidade inerente à larga maioria das organizações de grande dimensão ou mesmo de pequenas e médias empresas, que já não conseguem retirar valor efetivo dos dados que produzem através de ferramentas de Business Intelligence mais ‘tradicionais’. Big Data tem um papel muito importante a impulsionar negócios e são muitas as empresas que já estão conscientes disso mesmo. Segundo a Forbes, o mercado mundial de Big Data (software e serviços) irá crescer de 42 Biliões de dólares em 2018 para 103 Biliões de dólares no ano de 2027.

Por isso, as vantagens de implementar Big Data na sua empresa são muitas e ter uma estratégia bem definida é meio caminho para que consiga tomar decisões sustentadas, que podem ditar o sucesso do seu negócio.

O que é Big Data

Entende-se por Big Data a capacidade de analisar e/ou processar grandes quantidades de dados, quer por via do seu volume, quer pela quantidade de “data points” gerados. O conceito de Big Data aparece quando as empresas se deparam com um volume tão grande e tão constante de dados, que as ferramentas mais convencionais de processamento e análise já não conseguem ser eficazes.

Os dados podem ser estruturados, semiestruturados ou não estruturados. Dados estruturados são, por exemplo, os dados provenientes da atividade de compra e venda de uma organização. São informações obtidas através de um formulário ou através de tabelas operacionais. Os dados não estruturados ou semi-estruturados são informações geradas sem ordem definida e provenientes de fontes tão diversas como redes sociais, logs de utilizadores em aplicações web ou mobile, partilha de opiniões ou partilha de ficheiros, por exemplo.

Segundo dados da Harvard Business Review, só cerca de 20% dos dados que chegam às empresas são estruturados, sendo os restantes 80% semiestruturados ou não estruturados. Para além disso, a percentagem de dados estruturados que é utilizada para apoiar tomadas de decisão e extrair insights é de menos de 50%, sendo que esta cai para apenas 1% quando falamos em dados não estruturados ou semi-estruturados.

Podemos caracterizar o conceito de Big Data através de 4 Vs:

  • Volume (quantidades massivas de dados são geradas e necessitam de ser armazenadas e processadas. De acordo com o site Statista, só em 2018 foram gerados 10.6 zettabytes, provenientes de cloud data centres a nível global);
  • Velocidade (a velocidade de geração, processamento e análise de dados pode ser mais importante do que o volume, já que informação real-time ou near-real time oferece uma grande agilidade às empresas que têm uma estratégia de Big Data bem implementada);
  • Variedade (os dados podem ser originados através de várias fontes, como bancos de dados comuns, redes sociais, páginas web, transações financeiras, e-mails, sensores (IoT), ficheiros de áudio, texto, vídeo, arquivos, fóruns, etc). Veracidade (no fundo, a veracidade permite definir se os dados gerados são confiáveis, através da sua fonte ou origem);

Valor (os dados gerados têm realmente valor para a empresa? É necessário avaliar se aqueles dados, de facto, irão gerar novas oportunidades, aumentar receitas ou otimizar custos, por exemplo).

Vantagens de implementar uma estratégia bem definida

Sabemos, então, que a implementação de uma estratégia de Big Data tornou-se numa necessidade para as grandes organizações, e que o foco da questão deixou de ser “utilizar ou não utilizar Big Data”, para passar a ser “como utilizar Big Data da forma mais eficiente”.

Sabemos, também, que Big Data abre portas para tomadas de decisão mais sustentadas, com base em análises extremamente complexas, e que permite retirar insights muito importantes para otimizar as informações recolhidas. Assim, a decisão de implementar uma estratégia de Big Data deve partir das equipas ligadas às áreas de negócio, e não dos departamentos de TI, que devem garantir a execução técnica do projeto, da forma mais eficiente.  No fundo, são essas equipas (as de negócio) que vão retirar valor dos dados recolhidos para a realização do seu trabalho diário e para a definição estratégica.

Mas quais são as verdadeiras vantagens da implementação de um projeto de Big Data? O que é que as empresas trarão como vantagem competitiva para o seu negócio? Identificámos três das principais vantagens de implementar Big Data na sua empresa:

Vantagem 1: Tomadas de decisão fundamentadas

Através das análises de dados realizadas por tecnologias de Big Data é possível encontrar padrões de compra ou de comportamento que apoiam tomadas de decisão por parte dos departamentos de negócio. Por exemplo, se a equipa de marketing tiver a informação de que determinada família compra o mesmo produto todos os meses, poderá despoletar fluxos de mailing digital ou físico (se for o caso) de descontos para esse produto, com o intuito de garantir a fidelização daqueles clientes.

Vantagem 2: Redução de custos

Os dados gerados para ou por uma empresa são armazenados, processados e analisados, levando à descoberta de importantes insights de negócio ou mesmo de lacunas e falhas. Ao trabalhar sobre dados previamente analisados e ao ter acesso a, por exemplo, tendências constantes de comportamento ou de compra, as empresas conseguem lançar campanhas mais eficazes, que atingem diretamente o target pretendido e que, por isso, podem apresentar um ROI maior. Desta forma, a otimização da aplicação de budget vai tornar as equipas mais eficientes – aumentando também a sua produtividade.

Vantagem 3: Possibilidade de prever situações futuras

Em Big Data, por norma, podem realizar-se três tipos de análises que se complementam entre si: Descriptive analytics (é o tipo de análise que descreve aquilo que acontece, muitas vezes em real-time. Recorrendo à agregação de dados e a data mining, é possível aceder a uma fotografia do passado e perceber qual a razão de determinado desvio ou alteração ou, então, apenas sumarizar um determinado aspeto); Predictive analytics (este é o tipo de análise que descreve aquilo que poderá ocorrer no futuro, recorrendo a modelos estatísticos e algoritmos, e oferecendo cenários de situações estatisticamente prováveis); Prescritive analytics (com base em otimização, algoritmos de simulação, machine learning e modelos computacionais, este é um tipo de análise bastante complexo, que pretende responder à questão “o que devemos fazer em determinada situação?”. No fundo, os cenários criados irão funcionar como prescrições de diferentes ações e dos seus resultados finais, permitindo à empresa optar pelo cenário que apresenta um menor grau de risco).

Exemplos de aplicação prática

Agora que sabe quais as vantagens de implementar Big Data na sua empresa e como definir objetivos específicos e mensuráveis, a questão que se coloca é, de facto, como tirar partido dos dados que a sua organização gera, dependendo do tipo de área em que atua.

Aqui ficam alguns exemplos de aplicação prática:

  • Dados provenientes de sensores em sistemas de transportes;
  • Análise de dados financeiros para evitar fraudes (deteção de utilização de um cartão de crédito por um user não habitual, por exemplo).
  • Análise de tráfego de rede;
  • Web analytics (em sites de e-commerce);
  • Monitorização de menções nas redes sociais, com o intuito de avaliar se os sentimentos são positivos ou negativos em relação à marca/empresa;
  • Recomendação de filmes, viagens, hotéis, produtos, com base nas pesquisas e compras dos indivíduos;
  • Informações sobre trânsito e previsões de horas mais problemáticas.
Ana LamelasVantagens de implementar Big Data na sua empresa
read more