Desmistificando a Ciência de Dados

José Eduardo Fiamengui Júnior

jeduardounicamp@gmail.com

https://br.linkedin.com/in/joseeduardo-fiameng-fiamengui-2a34a361

https://oradeep.wordpress.com

Graduado em Tecnologia em Informática pela Unicamp, Pós-Graduado em Administração de Banco de Dados, Mba em Gestão estratégica pela FGV e professor do Centro de Treinamento Oracle no IBTA. Certificado Oracle OCE, ITIL e PSM. Atuou como DBA Oracle e SQL Server e Analista de Desempenho e Capacidade em empresas de diferentes setores dentre os quais financeiro, telecomunicações, segurança patrimonial, entre outras. Hoje é Arquiteto de Soluções de Business Intelligence na Câmara de Comercialização de Energia Elétrica (CCEE).

Objetivo:

Explicar os conceitos que fazem a ciência de dados estar impulsionando novos oportunidades de negócios. Bem como conhecer as principais ferramentas de mercado que estão sendo utilizadas para implementa-la.

Em que situação o tema é útil?

Útil para gestores, profissionais de TI e de negócios que buscam entender como a análise dos dados pode ajudar a alavancar oportunidades de negócio, mantendo sua empresa competitiva no mercado global.

Vivemos na era da informação e o mundo nunca gerou tantos dados como nos dias atuais. Informação é gerada a partir dos dados e esses, por sua vez, são gerados por seres humanos, máquinas, sistemas, celulares, e até mesmo seu refrigerador inteligente (IOT).

Nota (1): “Internet Of Things” (IOT): A “Internet das Coisas” se refere a uma revolução tecnológica cujo objetivo é conectar os itens usados no dia a dia à rede mundial de computadores. Cada vez mais surgem eletrodomésticos, meios de transporte e até mesmo tênis, roupas e maçanetas conectadas à Internet e a outros dispositivos, como computadores e smartphones. Quem se interessar pelo tema pode consultar
IoT: Samsung anuncia refrigerador inteligente com display de 21,5 polegadas (https://www.tecmundo.com.br/samsung/92504-iot-samsung-anuncia-refrigerador-inteligente-display-21-5-polegadas.htm)

O mundo gera informação exponencial e intuição apesar de relevante, não é o suficiente para que gestores tomem decisões importantíssimas para o futuro do negócio.

Nesse contexto, a ciência de dados, que não é um termo novo mas que ganhou importância com a tecnologia de Big Data e Hadoop (que serão conceituadas no decorrer deste artigo), a ciência de dados nos traz as ferramentas, métodos e tecnologias para analisar, visualizar e tomar decisões a partir dos dados. Vamos imaginar algumas possibilidades:

a) Dados de pedidos, vendas, relacionamento com clientes, processos internos, e-mails, redes sociais, entre outros gerados a cada dia por uma empresa.

Como esses dados se relacionam ? Como relacionar o mundo externo a empresa ? Como esses dados influenciam o comportamento dos consumidores no momento das compras? Como tomar decisões a partir do relacionamentos dessas variáveis em tempo adequado para que a empresa ganhe dinheiro?

A ciência de dados visa a responder todas essas perguntas para geração de novas oportunidades de negócio.

Vamos testar uma possibilidade prática sobre o assunto. Imagine que você tenha alugado um carro nos EUA (Nova Iorque), e que seu desejo, após passar por algumas cidades e chegar a Niagara Falls (para quem gostava de desenho, vale lembrar do Pica-pau), Niagara é o rio (fronteira) entre EUA e Canadá. Ao pegar o carro você assinou um contrato que permitia entregá-lo em qualquer outra cidade em que houvesse uma unidade da empresa locadora, porém não se atentou para o fato de que no contrato havia uma cláusula que regulamenta que o carro não poderia ultrapassar as fronteiras dos EUA. Seu passeio foi impossibilitado L. Uma solução plausível seria a empresa, a partir do cruzamento dos dados de GPS do carro, enviar-lhe uma mensagem no celular avisando que, pelas normas do contrato atual, você não poderia ultrapassar as fronteiras em virtude de questões legislativas entre os países, porém por um valor $$  passado no cartão de crédito, a travessia da fronteira seria possível e evitaria problemas com policiais / autorizações no Canadá?

Amplie isto, para áreas como varejo, setores financeiros que possuem dados que lhes permitam verificar o comportamento padrão de compras de seus clientes e conseguem detectar fraudes com cartões de crédito antes da perda de dinheiro pela instituição e tempo/transtornos para o cliente, posts em redes sociais e mídias que detectem uma necessidade de compra/desejos de produtos.

A junção destas informações cria diversas novas oportunidades de desvendar o comportamento das pessoas, seus interesses e suas interações.

O que permite que a ciência de dados consiga avaliar quase que em tempo real acontecimentos como o do exemplo ?

Novos métodos, tecnologias e processos são necessários para que possa extrair informação valiosa da imensidão de dados (Big Data).

Nota  (2): “Quem pretende investir em uma nova carreira, segundo o McKinsey Global Institute, por meio do “Big Data and Data Science Report 2015”: Até 2018, haverá um déficit superior a 200 mil profissionais com habilidades de análise de dados e mais de 1,5 milhão de gerentes e analistas que saibam usar Big Data e Ciência de Dados de forma efetiva para tomada de decisões.”

O que é Big Data ?

Cerca de 90% de todos os dados gerados no planeta, foram produzidos nos últimos 3 anos e aproximadamente 80% deles são não-estruturados ou estão em diferentes formatos, o que dificulta a análise. Modelos de análise de dados estruturados possuem limitações quando precisam tratar grandes volumes de dados.

Big Data se baseia em 4 V’s : velocidade, volume, variedade e veracidade. Big Data é um termo amplamente utilizado na atualidade para nomear conjuntos de dados muito grandes ou complexos e que, por isso mesmo, os aplicativos de processamento de dados tradicionais ainda não são capazes de lidar.

Big Data é o meio que possibilita à Ciência de Dados gerar novas oportunidades de negócios. Reforço a definição de Big Data com a famosa imagem da IBM sobre IBM Big Data & Analytics Hubs:

Figura 1 - Art

Figura 1: IBM Big Data & Analytics Hubs (Fonte: http://www.ibm.com)

Uma arquitetura de Big Data só conseguirá trabalhar seguindo os 4 V´s, utilizando-se de tecnologias, e de novos conceitos que englobam uma combinação de ferramentas como:

1-) Tecnologias

Figura 2 - Art:  é uma plataforma de software em Java de computação distribuída voltada para clusters e processamento de grandes massas de dados, oferecendo dois serviços importantes: armazenamento de qualquer tipo de dados a um custo baixo e em grande escala  e realização rápida de análises de dados complexos a partir do  MapReduce e do GoogleFS (GFS). Trata-se de um projeto da Apache de alto nível, que está sendo construído por uma comunidade de contribuintes utilizando a linguagem de programação Java. O Yahoo! tem sido o maior contribuinte do projeto, utilizando essa plataforma intensivamente em seus negócios.

O framework do Apache Hadoop é composto dos módulos seguintes: Hadoop Common, quecontém as bibliotecas e arquivos comuns e necessários os módulos seguintes:

Hadoop Distributed File System (HDFS): sistema de arquivos distribuídos que armazena dados em máquinas dentro do cluster, sob demanda, permitindo uma largura de banda muito grande em todo o cluster.

Hadoop Yarn: trata-se de uma plataforma de gerenciamento de recursos responsável pelo gerenciamento dos recursos computacionais em cluster, bem como pelo agendamento desses recursos.

Hadoop MapReduce: modelo de programação para processamento em larga escala.

Todos os módulos do Hadoop são desenhados com a premissa fundamental de que falhas em hardware são comuns e rotineiras, sejam elas máquinas individuais ou um conjunto inteiro de máquinas em racks, e devem, portanto, ser automaticamente tratadas pelo framework; e/ou

Figura 3 - Art: é um framework para processamento de Big Data construído com foco em velocidade, facilidade de uso e análises sofisticadas. Está sendo desenvolvido desde 2009 pelo AMPLab da Universidade de Califórnia em Berkeley e em 2010 seu código foi aberto como projeto da fundação Apache.

O Spark tem muitas vantagens se comparado às outras tecnologias de Big Data e do paradigma MapReduce, como o Hadoop e o Storm.

Inicialmente, o Spark oferece um framework unificado e de fácil compreensão para gerenciar e processar Big Data com uma variedade de conjuntos de dados de diversas naturezas (por exemplo: texto, grafos etc), bem como de diferentes origens (batch ou streaming de dados em tempo real).

O Spark permite que aplicações em clusters Hadoop executem até 100 vezes mais rápido em memória e até 10 vezes mais rápido em disco, além de desenvolver rapidamente aplicações em Java, Scala ou Python. Além disso, vem com um conjunto integrado de mais de 80 operadores de alto nível e pode ser usado de forma interativa para consultar dados diretamente do console.

Além das operações de Map/Reduce, suporta consultas SQL, streaming de dados, aprendizado de máquina e processamento de grafos. Desenvolvedores podem usar esses recursos no modo stand-alone ou combiná-los em um único pipeline.

Não se engane ou se limite a pensar que a escolha de um elimina o outro, pois grandes players já têm encontrado boas soluções juntando ambas e agregando as vantagens de cada uma delas.

2-) Conceitos

Business Analytics: prática de analisar dados para suportar a tomada de decisões. Muito provavelmente você já ouviu essa definição para outros termos como, por exemplo, Data Mining, BI Tradicional, ou até mesmo ciência de dados. O que ocorre é que as empresas estão realizando operações diferentes e utilizando o mesmo nome. BA é a capacidade de coletar dados praticamente em tempo real e gerar mecanismos que possam prever o comportamento do cliente a partir desses dados gerados. São ações voltadas para prever o futuro. Alguns exemplos para visualizarmos como isso acontece no mundo real são: quando você inicialmente entra em um site para verificar um produto “Tênis”, olha, não compra/compra, muda de site para verificar notícias e imediatamente começam a aparecer outras páginas mostrando promoções de produtos como Tênis, Sapatos; ou quando gigantes do mercado, a exemplo do NetFlix, que recomendam filmes/documentários baseados em suas últimas escolhas. Para isso, é necessário aplicar técnicas de ciência de dados, estatísticas e ainda contar com o famoso Big Data. Aprofundando um pouco mais nossa definição BA, diríamos que se trata do estudo dos dados através de ciência de dados e análise de operações, o que compreende formação de modelos preditivos, técnicas de otimização e comunicação desses resultados para clientes e executivos com objetivo claro de resolver problemas de negócio; e

Nota (3): Data Mining ou Mineração de Dados é o processo de explorar grandes quantidade de dados à procura de padrões consistentes, como regras de associação ou sequências temporais, para detector relacionamentos sistemáticos entre variáveis, identificando, assim, novos subconjuntos de dados. O termo é inglês criado por volta de 1990.

Machine Learning: é um conjunto de regras e procedimentos que permite que os computadores possam agir e tomar decisões baseadss em dados ao invés de ser explicitamente programados para realizar uma determinada atividade. Fácil entender este conceito lembrando do filme “Eu, Robô”. Programas de Machine Learning também são projetados para aprender e melhorar ao longo do tempo quando expostos a novos dados. Machine Learning tem estado no centro de muitos avanços tecnológicos nos últimos anos, como carros que dirigem sozinhos, sistemas de reconhecimento de voz, ou um simples e-mail separando SPAMs em sua caixa. Diversas técnicas diferentes podem ser utilizadas para o aprendizado de máquina, algumas delas são:

a) aprendizagem supervisionada (Supervised Learning): na qual o programa é “treinado” sobre um conjunto de dados pré-definidos. Baseado no treinamento com os dados pré-definidos, o software pode tomar decisões precisas;

b) modelo gerador (Generative Model):  usado para gerar valores de dados quando alguns parâmetros são desconhecidos. Modelos geradores são usados em Machine Learning para qualquer modelagem de dados diretamente ou como um passo intermediário para a formação de uma função de densidade de probabilidade condicional;

c) apredizagem profunda (Deep Learning): que muitas vezes usa redes neurais artificiais para gerar modelos. Técnicas de Deep Learning, foram muito bem sucedidas na resolução de problemas de reconhecimento de imagem devido a sua capacidade de escolher as melhores características.

Há outras  técnicas, mas para quem quer se aprofundar e ver algo neste nível em funcionamento, dê uma olhada no IBM Watson (https://www.ibm.com/br-pt/marketplace/watson-analytics), que tem revolucionado o mercado ao ponto de levar a pensar que algumas profissões estão em risco por conta da utilização dessa tecnologia.

Nota  (4): “O programa COIN (Contract Intelligence), interpreta acordos de empréstimo commercial, atividade que normalmente consumia 360 mil horas de advogados por ano. “ http://conteudo.startse.com.br/mundo/lucas-bicudo/software-do-jpmorgan/

DataOps que é uma combinação de ferramentas e aprimoramentos de processos que permitem análise de dados de resposta rápida em um alto nível de qualidade. O DataOps adapta-se mais facilmente aos requisitos dos usuários, mesmo quando eles evoluem, e, em última análise, apoia uma melhor tomada de decisão baseada em dados. O DataOps é composto por:

Figura 4 - Art

Figura 2: DataOps herança do Devops e Ágil (Fonte: https://en.wikipedia.org/wiki/Dataops)

a) agile: é uma filosofia e visa a nortear atitudes e comportamentos. Ser ágil é focar na entrega de valor ao negócio, permitindo que todos participem da construção do resultado desde a etapa de planejamento, criando um ambiente no qual todos sejam responsáveis também pelo gerenciamento de atividades e pela entrega do projeto. A partir dessa filosofia para desenvolvimento de software, foram criados diversos frameworks, o mais popular é o SCRUM,  que deve seguir “eventos” como Reunião diária (Scrum daily), Sprint (Ciclo de desenvolvimento), entre outros encontros formais/informais e artefatos gerados no processo.

b) DevOps: é o alinhamento do time de desenvolvimento com o time de operações em relação a processos, ferramentas e responsabilidades, visando a acelerar as entregas em produção com um elevado grau de qualidade. Enquanto o desenvolvimento ágil (Agile?) aproximou as equipes de desenvolvimento do negócio, reduzindo gaps entre essas áreas, o Devops traz agilidade para entregas, reduzindo gaps entre desenvolvimento e operações.

Figura 5 - Art

Figura 3: Ilustração mostrando como são as intersecções entre Desenvolvimento (Engenharia de Software), Operações e Controle de Qualidade. (Fonte: https://pt.wikipedia.org/wiki/DevOps)

c) Lean Manufacturing: trata-se dos processos de controles estatísticos que asseguram a qualidade e fornecem feedback prévio às não-conformidades.

Agora que já vimos os conceitos e tecnologias necessárias para suportar a ciência de dados, vamos diferenciar a ciência de dados do BI tradicional. Muitas organizações já possuem implementações de BI e investiram milhões em desenvolvimento contendo diversas análises que já são utilizadas para tomada de decisão. Então, qual o objetivo de um BI?

Business Inteligence: o objetivo do BI é converter dados brutos em insights de negócio para que os líderes empresariais possam usar para tomada de decisão. Necessitando de dashboards, visualizações ou relatórios a partir de conjuntos médios de dados estruturados de negócio,  você pode usar ferramentas de BI e métodos para isso. BI é composto de:

1. Dados internos: dados coletados dentro da organização, gerados por colaboradores, gestores, sistemas e stakeholders.

2. Tecnologias e ferramentas: OLAP (online analytical process), ETL (extract, transforming e load) e Data Warehousing.

Nota (5): Online Analytical Process ou Processamento Analítico Online (OLAP): é um conceito de interface com o usuário que proporciona a capacidade de ter ideias sobre os dados, permitindo analisá-los profundamente sob diversos ângulos.

Nota (6): Data WareHouse ou Armazém de dados (DW): é um depósito de dados que serve para armazenamento de informações detalhadas, criando e organizando relatórios por meio de de históricos que são usados posteriormente pela empresa para a tomada de decisão.

OLAP e o Data Warehouse estão destinado a trabalharem juntos, enquanto o DW armazena as informações de forma eficiente. O OLAP deve recuperá-las com a mesma eficência e rapidez. As duas tecnologias se complementam, ao ponto de que, para um DW ser bem sucedido, deve levar em consideração o que se deseja apresentar já na sua concepção.

Insights em BI são gerados normalmente a partir de dados de negócios estruturados. As soluções de BI são principalmente construídas com base em dados transacionais gerados dentro da organização. São exemplos as transações bancárias e os dados coletados durante uma venda. As informações que você pode obter do BI:

Dados de Serviços de cliente: Que áreas de negócios estão causando maior tempo e espera de nossos usuários?

Vendas: Que estratégias de marketing são mais efetivas?

Dados de empregados: Que colaboradores são mais produtivos?

Basicamente oportunidades de identificação descritiva / diagnóstica sobre determinada atividade / produto / serviço:

Você possui condições de analisar seus dados da seguinte forma:

O que aconteceu: na venda de produtos (após dada uma promoção de vendas feita pela time de marketing) ?  ou  Por que isso aconteceu ?

Ciência de Dados: dentro da organização, a ciência de dados tem a mesma finalidade que o BI, converter dados brutos em insights de negócios que os líderes empresariais possam usar para tomada de decisão.

copypasteimage

Buscando a junção de dados estruturados (organização) e não estruturados (redes sociais ou dados externos a organização) com análise em tempo real, este é o momento de pensar na ciência de dados que centrada em negócio é uma disciplina multidisciplinar integrando os seguintes elementos:

d) Análise quantitativa: modelagem matemática, análise estatística, previsões e simulações.

e) Skills de programação: habilidades em programação para analisar dados brutos e torná-los acessíveis aos usuários de negócio.

Conhecimento de negócio: conhecimento do ambiente de negócio, para melhor compreender a relevância dos resultados encontrados.

Fonte 7 - Art

BI Tradicional X Ciência de Dados (Fonte: O Autor 2017)

Insights de ciência de dados podem ser retirados de conjuntos de dados estruturados, semi-estruturados e não estruturados. Essas soluções não se limitam aos dados transacionais (vendas, marketing e atendimento ao cliente da organização), já que a ciência de dados transcende isso por utilizar-se de mídias sociais (Twiter, Facebook, Linkedin, Instagram) e/ou dados gerados por máquinas: automóveis ou refrigeradores e arquivos de áudio e vídeos.

Fonte 8 - Art

Fonte: Autor (2017)

Agora que entendemos o que a ciência de dados nos possibilita a mais do que uma plataforma tradicional de BI, vamos entender um pouco do papel do cientista de dados que é o profissional necessário para analisar os dados gerando novas oportunidades de negócio.

O cientista de dados deve ter bons conhecimentos em Matemática e Estatísticas, Ciências da Computação (DataOps, Devops, Frameworks de Gerenciamento de Projeto, Infraestrutura) e Conhecimento apropriado de negócio. Já é movimento de muitas empresas realizar a integração entre áreas de TI e de negócio diminuindo assim a documentação e aumentando a entrega de valor ao negócio, os movimentos normalmente são ensinar TI ao negócio ou ensinar negócio a TI.

O profissional hoje conhecido como cientista de dados emprega método científico para exploração dos dados, formação de hipóteses e testes de hipóteses (através de simulação e modelagem estatística). Cientista de dados com foco de negócios geram conhecimentos valiosos, muitas vezes, explorando padrões e anomalias em dados de negócios.

Vamos detalhar um pouco mais as ferramentas que suportam o trabalho do cientista de dados, lembrando que estamos colocando uma explicação das ferramentas amplamente utilizadas pelo mercado, porém há outras que podem se adequar melhor às necessidades de cada  empresa:

BigData Analytics com R: é uma linguagem e também um ambiente de desenvolvimento integrado para cálculos estatísticos e gráficos.

O R disponibiliza uma ampla variedade de técnicas estatísticas e gráficas, incluindo modelação linear e não linear, testes estatísticos clássicos, análise de séries temporais (time-series analysis), classificação, agrupamento e outras. O R é facilmente extensível através de funções e extensões, e a comunidade R é reconhecida pelos seus contributos ativos em termos de pacotes. Muitas das funções padrão do R são escritas no próprio R, o que torna fácil para os usuários seguir as escolhas algorítmicas feitas. Para tarefas computacionais intensivas, os códigos C, C++, e Fortran podem ser ligados e chamados durante a execução. Usuários experientes podem escrever código C ou Java para manipular diretamente objetos R.

Microsoft Azure Machine Learning: utilizado para criar modelos de aprendizado de máquina de forma simples e visual.

O Microsoft Azure contém muitos módulos poderosos de aprendizado de máquina e de manipulação de dados. Felizmente, a análise e manipulação de dados no Aprendizado de Máquina do Azure podem ser estendidas com R. Essa combinação fornece a escalabilidade e a facilidade de implantação do Aprendizado de Máquina do Azure com a flexibilidade e análise profunda de R. A junção dessas ferramentas trará formas de fazer a variação de previsão de vendas de itens sazonais, determinação de níveis de estoque ideal e a previsão de variáveis macroeconômicas. A previsão normalmente é feita com modelos de série de tempo.

Big Data Real Time Analytics Spark: Inicialmente, o Spark oferece um framework unificado e de fácil compreensão para gerenciar e processar Big Data com uma variedade de conjuntos de dados de diversas naturezas (por exemplo: texto, grafos, etc), bem como de diferentes origens (batch ou streaming de dados em tempo real). O Spark permite que aplicações em clusters Hadoop executem até 100 vezes mais rápido em memória e desenvolver rapidamente aplicações em Java, Scala ou Python. Além disso, vem com um conjunto integrado de mais de 80 operadores de alto nível e pode ser usado de forma interativa para consultar dados diretamente do console.

Tableau: é uma poderosa ferramenta para construção de dashboards e análise de dados, possui integração com R nativa e é intuitiva aos usuários de TI ou negócio que possuam conhecimentos dos dados. Possui uma ampla variedade de conectores para busca dos dados possibilitando exploração ilimitada e com a construção de painéis iterativos aproveita a habilidade natural dos usuários para detecção de padrões visuais com rapidez, revelando novas oportunidades de negócio. A forma como o Tableau trabalha com sua tecnologia VizQL off-line ou em memória permite a extração de grandes quantidades de dados combinando avanços de computação gráfica e banco de dados para análise de grandes conjuntos de dados em seu laptop.

Figura 6: Tableau (Fonte: https://www.tableau.com/pt-br/products/desktop)

Conclusão

Segundo o Guia Salarial 2017 divulgado pela Robert Ralf, Big Data está revolucionando o mercado e as empresas estão buscando profissionais que possuam conhecimento em TI e Estatística para que consigam traduzir dados de negócio em informações estratégicas para a tomada de decisão. O cientista de dados, conforme mencionado no decorrer do nosso artigo é o profissional que mescla estes conhecimentos.

A ciência de dados é uma área muito abrangente e está entre as tendências de movimento no mundo da tecnologia, pois há muito a ser explorado com a quantidade de dados que se tem disponível, utilizando principalmente os conceitos e ferramentas explanadas no decorrer deste artigo.

Referências Bibliográficas

[1] DataScience Academy, http://www.datascienceacademy.com.br/

[2] Microsoft Azure, https://docs.microsoft.com/pt-br/azure/machine-learning/

[3] Ciência de Dados, www.cienciadedados.com

[4] IBM, https://www.ibm.com/br-pt/marketplace/watson-analytics

[5] InfoQ, https://www.infoq.com/br/articles/apache-spark-introduction

[6] BI na era do big data para cientista de dados: Loh, Stanley

[7] The New Era of Enterprise Business Intelligence: Biere, Mike

Anúncios

Sobre oradeep

José Eduardo Fiamengui Júnior Graduação: Tecnologia em Informática pela Universidade Estadual de Campinas (Unicamp) Pós-Graduação: Administração em Banco de Dados Oracle pelo Instituto Brasileiro de Tecnologia Avançada (IBTA) Mba em Gestão Estratégica em TI pela FGV OCE 11G Certified ITIL V3 Foundation Certified PSM 1 (Professional Scrum Master) Empresa Atual: Câmara de Comercialização de energia elétrica Cargo atual: Arquiteto de soluções de Business Intelligence Cv: https://public.tableau.com/profile/joseeduardofiamenguijunior#!/vizhome/TableauPublicDadosCV/DadosGerais Linkedin: Dados Pessoais José Eduardo Fiamengui Júnior Arquiteto de Soluções de Business Intelligence Casado, 33 anos Formação Acadêmica https://oradeep.wordpress.com/ https://br.linkedin.com/in/josé-eduardo-fiamengui-júnior-1b9b4427
Esta entrada foi publicada em Uncategorized. ligação permanente.

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão /  Alterar )

Google photo

Está a comentar usando a sua conta Google Terminar Sessão /  Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão /  Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão /  Alterar )

Connecting to %s