Logotipo Rox Partner colorido
  • ROX Partner
    • Sobre Nós
    • Experts
  • Serviços
    • Banco de Dados
      • Consultoria
      • DBA Remoto 24×7
      • Migração
      • Gestão 24×7
      • DOC 24X7
    • Analytics
      • Construção de Datalake
      • Migração de Plataformas
      • Engenharia de Dados
      • Inteligência Artificial
      • DOC 24×7
      • Squads de Analytics
    • Infraestrutura
      • Consultoria
      • Sustentação
      • Virtualização
      • Segurança
      • DOC 24×7
    • Cloud
      • Migração on-premise
      • Cloud Híbrida
      • Cloud Pública
      • Custo Cloud
      • DOC 24×7
  • Soluções
    • Banco de Dados
      • Oracle
      • Microsoft SQL Server
      • IBM DB2
      • MySQL
      • PostGreSQL
      • MongoDB
      • Progress
      • Elastic
      • Apache Solr
      • Apache HBase
      • Apache Cassandra
    • Analytics
      • Hadoop
      • AWS RedShift
      • Azure SQL Datawarehouse
      • Google BigQuery
    • Cloud
      • Microsoft Azure
      • Google Cloud
      • Oracle Cloud
    • Infraestrutura
      • Dell
      • Aruba
      • Oracle Enterprise Linux
      • VMWare
      • VEEAM
      • Fortinet
  • Parcerias
  • Recursos
    • ServiceDesk
    • Rox Mon
    • White Paper
    • Webinar
    • Podcast
  • Blog
Fale com a gente
Logotipo Rox Partner colorido
  • ROX Partner
    • Sobre Nós
    • Experts
  • Serviços
    • Banco de Dados
      • Consultoria
      • DBA Remoto 24×7
      • Migração
      • Gestão 24×7
      • DOC 24X7
    • Analytics
      • Construção de Datalake
      • Migração de Plataformas
      • Engenharia de Dados
      • Inteligência Artificial
      • DOC 24×7
      • Squads de Analytics
    • Infraestrutura
      • Consultoria
      • Sustentação
      • Virtualização
      • Segurança
      • DOC 24×7
    • Cloud
      • Migração on-premise
      • Cloud Híbrida
      • Cloud Pública
      • Custo Cloud
      • DOC 24×7
  • Soluções
    • Banco de Dados
      • Oracle
      • Microsoft SQL Server
      • IBM DB2
      • MySQL
      • PostGreSQL
      • MongoDB
      • Progress
      • Elastic
      • Apache Solr
      • Apache HBase
      • Apache Cassandra
    • Analytics
      • Hadoop
      • AWS RedShift
      • Azure SQL Datawarehouse
      • Google BigQuery
    • Cloud
      • Microsoft Azure
      • Google Cloud
      • Oracle Cloud
    • Infraestrutura
      • Dell
      • Aruba
      • Oracle Enterprise Linux
      • VMWare
      • VEEAM
      • Fortinet
  • Parcerias
  • Recursos
    • ServiceDesk
    • Rox Mon
    • White Paper
    • Webinar
    • Podcast
  • Blog
Fale com a gente
Rox Partner
  • ROX Partner
    • Sobre Nós
    • Experts
  • Serviços
    • Banco de Dados
      • Consultoria
      • DBA Remoto 24×7
      • Migração
      • Gestão 24×7
      • DOC 24X7
    • Analytics
      • Construção de Datalake
      • Migração de Plataformas
      • Engenharia de Dados
      • Inteligência Artificial
      • DOC 24×7
      • Squads de Analytics
    • Infraestrutura
      • Consultoria
      • Sustentação
      • Virtualização
      • Segurança
      • DOC 24×7
    • Cloud
      • Migração on-premise
      • Cloud Híbrida
      • Cloud Pública
      • Custo Cloud
      • DOC 24×7
  • Soluções
    • Banco de Dados
      • Oracle
      • Microsoft SQL Server
      • IBM DB2
      • MySQL
      • PostGreSQL
      • MongoDB
      • Progress
      • Elastic
      • Apache Solr
      • Apache HBase
      • Apache Cassandra
    • Analytics
      • Hadoop
      • AWS RedShift
      • Azure SQL Datawarehouse
      • Google BigQuery
    • Cloud
      • Microsoft Azure
      • Google Cloud
      • Oracle Cloud
    • Infraestrutura
      • Dell
      • Aruba
      • Oracle Enterprise Linux
      • VMWare
      • VEEAM
      • Fortinet
  • Parcerias
  • Recursos
    • ServiceDesk
    • Rox Mon
    • White Paper
    • Webinar
    • Podcast
  • Blog
  • ROX Partner
    • Sobre Nós
    • Experts
  • Serviços
    • Banco de Dados
      • Consultoria
      • DBA Remoto 24×7
      • Migração
      • Gestão 24×7
      • DOC 24X7
    • Analytics
      • Construção de Datalake
      • Migração de Plataformas
      • Engenharia de Dados
      • Inteligência Artificial
      • DOC 24×7
      • Squads de Analytics
    • Infraestrutura
      • Consultoria
      • Sustentação
      • Virtualização
      • Segurança
      • DOC 24×7
    • Cloud
      • Migração on-premise
      • Cloud Híbrida
      • Cloud Pública
      • Custo Cloud
      • DOC 24×7
  • Soluções
    • Banco de Dados
      • Oracle
      • Microsoft SQL Server
      • IBM DB2
      • MySQL
      • PostGreSQL
      • MongoDB
      • Progress
      • Elastic
      • Apache Solr
      • Apache HBase
      • Apache Cassandra
    • Analytics
      • Hadoop
      • AWS RedShift
      • Azure SQL Datawarehouse
      • Google BigQuery
    • Cloud
      • Microsoft Azure
      • Google Cloud
      • Oracle Cloud
    • Infraestrutura
      • Dell
      • Aruba
      • Oracle Enterprise Linux
      • VMWare
      • VEEAM
      • Fortinet
  • Parcerias
  • Recursos
    • ServiceDesk
    • Rox Mon
    • White Paper
    • Webinar
    • Podcast
  • Blog

Category: Analytics

16 de dezembro de 2022
Analyticsappsbanco de dadosCloud

Confira 6 Tecnologias utilizadas na Copa do Mundo do Catar 2022

A cada quatro anos, o mundo inteiro se reúne na festa do futebol. Questões políticas e culturais à parte, a edição da Copa do Mundo do Catar 2022 trouxe novidades incríveis quanto aos sistemas tecnológicos usados tanto no jogo como fora dele. 

E é a respeito deles que vamos abordar neste artigo. Confira!  

Quais as tecnologias utilizadas na Copa do Mundo do Catar 2022?  

 Em cada jogo do mundial estão sendo utilizados os seguintes recursos tecnológicos: 

  • Sensores na bola e trave para detecção de cruzamento da linha de gol; 
  • Um sistema semiautomático de detecção de impedimento; 
  • Novas capacidades do Árbitro Assistente de Vídeo (o famoso VAR);  
  • Um aplicativo de informações em tempo real para o torcedor 
  • Um grande sistema de coleta de dados que permite a geração de gráficos e a análise da partida quase em tempo real. 

Agora, você vai conhecer, em detalhes, 6 das principais tecnologias e inovações que a Copa do Mundo do Catar apresentou neste ano.  

 

Sistema de linha de gol atualizado

O sistema de linha de gol foi implementado na Copa de 2014. São utilizadas 14 câmeras de alta velocidade, sendo 7 para cada gol. Com as imagens de pelo menos 3 dessas câmeras, o sistema pode determinar a posição da bola com precisão, mesmo com a interferência dos jogadores ou do goleiro. Também pode indicar se ocorreu ou não o cruzamento da linha do gol.  Quando a bola cruza a linha do gol, o árbitro do jogo recebe, em um dos seus relógios, um sinal visual e vibratório indicando o gol. 

Além do aviso ao árbitro, o sistema também cria uma animação em 3D da posição da bola em relação com o gol. Na sequência, envia essa informação de forma imediata para as transmissoras de TV e para as telas que estão no estádio.  

Sistema semiautomático de Impedimento

O sistema semiautomático de impedimento é uma ferramenta de suporte para ajudar os árbitros que atuam no sistema de vídeo e os árbitros em campo a tomarem decisões de impedimento mais precisas e rápidas. 

Composto por 12 câmeras de rastreamento montadas sob o teto do estádio, as câmeras estão dedicadas a rastrear a posição da bola e os 29 pontos do corpo de cada um dos jogadores. Isso ocorre 50 vezes por segundo, sendo possível calcular a posição exata do jogador no campo. 

Os 29 pontos de dados coletados incluem ombros, cotovelos, mãos, quadril, joelhos, tornozelos, pés e cabeça de cada jogador, ou seja, todos os membros e extremidades relevantes para a marcação de impedimento.  

Como parte do sistema de detecção, a bola possui um sensor chamado de unidade de medição inercial (IMU). Esse sensor, posicionado no centro da bola, envia os dados do seu movimento para a sala de operações de vídeo, 500 vezes por segundo. Desse modo, permite uma detecção muito precisa do momento em que a bola foi chutada. 

Combinando os dados de rastreamento dos jogadores, e da bola, e com ajuda da inteligência artificial, sempre que ela é recebida por um atacante que estava em posição de impedimento , no momento em que foi chutada por um companheiro da equipe, a nova tecnologia dispara um alerta de impedimento para os árbitros de vídeo. Antes de informar o árbitro em campo, os árbitros de vídeo validam a decisão proposta, verificando, de forma manual, o ponto de chute selecionado e a linha de impedimento, ambos criados automaticamente, com base nas posições calculadas dos membros dos jogadores.  

Depois que a decisão é confirmada pelo árbitro em campo, os mesmos pontos de dados posicionais usados ​​para a tomada de decisão servem para gerar uma animação 3D, que detalha perfeitamente a posição dos membros dos jogadores quando a bola foi chutada. Essa animação 3D é exibida nas telas gigantes do estádio e também é disponibilizada para as transmissoras de TV. 

Sistema de linha de gol e impedimento copa do Catar 2022 

Novas Capacidades no Vídeo Assistant Referee (VAR)

O Árbitro Aassistente de vídeo ou VAR, foi usado pela primeira vez na Copa de 2018 e conta com o acesso às 42 câmeras usadas nas transmissões dos jogos, localizadas ao redor de todo o estádio. A maioria das câmeras são usadas para determinar a intensidade de uma falta, mas existem oito delas que são do tipo super câmera lenta, e quatro do tipo ultra câmera lenta que são usadas, normalmente, para mostrar as faltas com detalhe. 

Além das câmeras da transmissão, o VAR tem acesso às imagens geradas pelo sistema semiautomático de impedimento.  

Na sala de operação de vídeo (Vídeo Operation Room – VOR), uma equipe de quatro árbitros verifica os incidentes do jogo: o Árbitro Assistente de Vídeo (VAR) e três assistentes do VAR (AVAR1, AVAR2 e AVAR3). 

O VAR é responsável por liderar a equipe VAR e se comunicar com o árbitro em campo. Ele é responsável por observar a câmera principal no monitor superior e verificar todos os incidentes.  

O AVAR1 concentra-se na câmera principal e mantém o VAR informado caso algum incidente tenha sido verificado ou revisado. 

O AVAR2 concentra-se no sistema semiautomático de impedimento para acelerar o processo de verificação e revisão do VAR. 

O AVAR3 se concentra na transmissão de TV e auxilia o VAR na avaliação de incidentes. 

O sistema inclui um monitor perto da área técnica, onde o árbitro em campo pode revisar os vídeos enviados pelo VAR e realizar a tomada de decisão. 

A informação do processo de verificação pelo VAR, assim como o motivo da verificação, a etapa da verificação e o resultado são informados automaticamente, tanto ao público nas telas do estádio quanto às emissoras de TV.   

VAR Copa do Catar 2022

 

Football Data Ecosysistem

Durante o jogo, todas as ações no campo são registradas — todos os passes, chutes, substituições, decisões dos árbitros, ataques, defesas, faltas, aceleração, distância percorrida. 

O processamento de dados, ao vivo, permite garantir a maior qualidade e riqueza de dados possíveis em apenas alguns segundos, a partir do momento em que a ação ocorre no campo de jogo. Para isso, o processo de coleta de dados é dividido em várias etapas operacionais, criando diferentes camadas de dados.  

Analistas experientes, conhecidos como “speakers” ou locutores, estão no estádio e concentram toda a sua atenção no que está acontecendo no campo de jogo e passam essas informações para uma pessoa conhecida como “escritor”, que insere as informações no sistema.  

Além do locutor e do escritor, até dois observadores ao vivo são usados ​​para verificar os dados e coletar uma segunda camada de dados com informações adicionais. Enquanto as informações mais importantes e relevantes são captadas diretamente pelo locutor, os dois observadores, ao vivo, agregam valor a esses eventos no mais alto nível de coleta de dados.  

Para coletar os dados posicionais (coordenadas X e Y) de todos os jogadores, dos árbitros e da bola, o sistema de rastreamento óptico captura a posição do jogador várias vezes por segundo. Esses dados não apenas refletem a posição do jogador, mas também podem ser usados ​​para calcular velocidade, distância e direção do jogo. Essas métricas permitem que os analistas esportivos tenham insights mais profundos e consigam otimizar o desempenho físico dos jogadores e o desempenho tático da equipe. 

Os dados coletados são disponibilizados às equipes participantes, aos treinadores, aos jogadores e a mídia envolvida na Copa do Mundo, numa plataforma dedicada para análise de dados e vídeos.  

Football Ecosystem catar 2022

 Fifa Player App

O FIFA Player App permite que cada um dos jogadores acesse seus dados individuais de desempenho logo após cada partida. Os dados coletados incluem: 

Métricas de desempenho físico – coletadas pelo sistema de câmeras de rastreamento localizadas ao redor do estádio. As métricas incluem distância percorrida em vários limites de velocidade, número de ações acima de 25 km/h e velocidade máxima, tudo exibido em mapas de calor posicionais. 

Métricas de dados de futebol – são calculadas usando os dados de eventos capturados por uma equipe de analistas de desempenho de futebol da FIFA e combinados com dados de rastreamento dos jogadores, incluem eventos como lances de ataque, defesa, passes etc. 

Esses dados são sincronizados com as imagens da partida para permitir que os jogadores assistam a todos os momentos-chave de seu próprio desempenho com máximo detalhe, usando diferentes ângulos de câmera. 

Além disso, várias fotografias de ação são registradas durante os principais momentos de cada partida e disponibilizadas para cada jogador individualmente. 

fifa app catar 2022

Al Rihla: A bola mais tecnológica do mundo

A bola oficial da copa, a Al Rihla (A jornada, em português), possui dentro dela um dispositivo que pesa 14 gramas e que contém 2 sensores diferentes que operam simultaneamente:  

Um sensor de banda ultralarga (UWB): um tipo de tecnologia superior ao GPS ou bluetooth para dados posicionais precisos, além de poder transmitir dados em tempo real para rastrear constantemente a posição da bola. 

Uma unidade de medição inercial (IMU): um sensor com 9 eixos, giroscópio e acelerômetro, destinado a detectar movimentos sutis da bola no espaço. 

A bola transmite os dados dos sensores 400 vezes por segundo a um sistema de posicionamento local (Local Positioning System – LPS) conformado por 24 antenas ao redor do campo. Mediante triangulação, o sistema permite estabelecer a posição da bola dentro do campo com precisão menor a 10 cm. 

Com a informação transmitida, o sistema calcula métricas como velocidade da bola, longitude do passe, força do chute etc. e reconhece também, se é um toque, um passe ou um chute ao gol. 

Todos os dados capturados pelo sistema de posicionamento da bola e as métricas geradas a partir deles, são integrados ao ecossistema de dados da FIFA.  

Os dados estão presentes em todo lugar, e na copa do mundo não é diferente. É necessária uma infraestrutura robusta e eficiente para coletar e analisar toda a informação gerada em cada um dos jogos.  

a bola mais tecnologica do mundo

 

Mais sobre a Copa do Catar 2022

O Catar é um pequeno país localizado na península Arábica, Doha. Nasceu como um pequeno povoado de pescadores que se dedicavam ao cultivo de pérolas e a extração de tintas para tecidos a partir de caracóis marinhos. Hoje, o Catar é um dos países mais poderosos e ricos do mundo, graças à exportação de gás natural. 

Mas, viver no Catar não é simples. As temperaturas ultrapassam 40°C no verão, fazendo com que a Copa fosse alterada para o final do ano de 2022, quando as temperaturas normalmente desérticas são mais amenas. Dentre as inovações desta edição, destacam-se, também, as tecnologias implementadas na construção dos estádios. A principal delas foi, sem dúvida, o sistema de ventilação dos estádios.  

 

Tecnologia aplicada em megaeventos e também no seu negócio: Conheça a Rox Partner 

Já imaginou ter todos os dados da sua empresa em um quadro de fácil visualização, ou contar com relatórios inteligentes sobre cada ação feita pelo seu cliente? Ainda mais, poder controlar os seus equipamentos de forma remota e precisa? 

A Rox Partner possui um time focado em Analytics e Inteligência Artificial e está pronto para atender as demandas do seu negócio, seja ela de monitoramento, de controle ou de correção nos processos. Invista em IA, e descubra como podemos transformar a sua empresa por meio de dados. Fale com nossos especialistas!  

Learn More

Edgar Bermudez
25 de novembro de 2022
AnalyticsbusinessPrivacidade

Privacidade e Anonimato em Cidades Inteligentes

Com a crescente busca por otimização de recursos públicos e o advento das novas tecnologias as cidades tem implementado soluções inovadoras buscante melhorar o conforto e segurança de seus cidadãos, porém isso tem ocorrido sem que os devidos aspectos de privacidade e Anonimato dos cidadãos de São Paulo tenham sido devidamente discutidos, um dos pontos mais críticos atualmente é o compartilhamento público dos sistemas de câmeras de transito, transporte público e segurança da cidade. A atual mudança de paradigmas e a fome por dados, tem gerados soluções sem planejamento e diretriz sobre a privacidade dos cidadãos.

Assim o presente artigo visa debater e evidenciar os riscos e prejuízos que que a cidade está gerando com a implantação de soluções mal planejadas e sem o devido debate técnico e aprovação dos cidadãos.

 

Smart City, A Cidade Inteligente

Segundo artigo da revista IEEE Internet of Things Journal ( Volume: 1, Issue: 1, Feb. 2014 )  [1] o termo “Smart City” é um conceito que visa o melhor uso dos recursos públicos, aumentando a qualidade dos serviços oferecidos aos cidadãos, enquanto reduz os custos operacionais de administração pública. Neste mesmo artigo é importante ressaltar que a palavra “privacy” é citada apenas uma vez quando o texto se refere a monitaração de ruídos na cidade, levantando a hipótese de que o monitoramento de sons seria prejudicial a privacidade e deve-se discutir os casos de implementação:

[1] This service can hence improve both the quiet of the nights in the city and the confidence of public establishment owners, although the installation of sound detectors or environmental microphones is quite controversial, because of the obvious privacy concerns for this type of monitoring.

 

Conforme citação acima, temos que o conceito de cidades inteligentes visa a melhor prestação de serviços ao cidadão proporcionando bem estar e otimizando os recursos públicos através de soluções inteligentes. Dessa forma temos de tomar como base que qualquer implementação deste tipo tenha enraizados tais conceitos em primeiro lugar.

 

A Próxima Revolução

As revoluções do homem contemporâneo sempre estiverem ligadas aos processos produtivos, que por sua vez foram marcados pelas revoluções industriais. Estamos vivenciando a quarta revolução industrial, sendo que cada uma das revoluções anteriores marcaram e transformaram a sociedade direta ou indiretamente.

As revoluções industriais sempre estiveram ligadas ao domínio de novas tecnologias e a aplicação de tais tecnologias nas devidas cadeias produtivas. A primeira revolução industrial por assim dizer foi iniciada na Inglaterra no século 18 com a invenção de máquinas a vapor, o que possibilitou a mudança de serviços braçais que antes era realizados por animais e escravos. E assim se seguiu um constante desenvolvimento tecnológico. Temos ainda a relação entre a primeira e a segunda guerra mundial, possibilitadas graças a escala de produção e a segunda revolução industrial que por sua vez contava já no inicio do século 20 com a produção de itens como carros, televisores e afins que conhecemos hoje.

A terceira revolução industrial já conta com a integração entre as cadeias de produção e o desenvolvimento cientifico, também conhecida como revolução tecnocientífica. As empresas investiram muito em centros de pesquisas avançados para desenvolver novas tecnologias e produtos inovadores.

A quarta revolução também conhecida como “A industria 4.0” não se traduz apenas nas novas técnicas de automação industrial e integração da cadeia aos serviços de internet, a maior mudança de paradigma está atrelada ao fato de os dados serem a grande matéria-prima, e nesse caso os dados são gerados pelos próprios consumidores. Visto a crescente demanda por dados de diversas área que possam definir comportamentos dos clientes em potencial qualquer nova fonte de dados se torna alvo de industrias que anseiam determinar o comportamento de seus consumidores. Essa lógica vai de encontro com o artigo

[2] ( Communications (ICC), 2017 IEEE International Conference ) “Big Data challenges and opportunities in the hype of industry 4.0” e artigo [3] (Service innovation and smart analytics for Industry 4.0 and big data environment ).

 

A atual quarta revolução industrial como assim é chamada tem várias características uma delas está ligado a obtenção de dados para geração novos produtos e serviços. É um novo mundo totalmente orientado a dados e esses dados são materia prima bruta das novas organizações, de forma que nós em parte somos o insumo de tal produto. Dessa forma nossa privacidade está cada vez mais afetadas e requisitada como contrapartida para o consumo de bens e serviços.

 

Cidade de São Paulo

São Paulo é a cidade mais populosa das Américas, ficando a frente de cidades como [4]  Cidade do México  ( México ), Lima ( Peru ) e Nova York ( Estados Unidos ). São Paulo tem aproximadamente 21 milhões de habitantes,  [5] é a cidade com o 10° maior PIB do mundo, responsável por cerca de 11% do PIB Brasileiro que por sua vez é a 10 economia do mundo, ainda responsável por 28% de toda produção cientifica e desenvolvimento tecnológico do país.

 

Câmeras de Monitoramento

A CET ( Companhia de Engenharia de Trafego ) responsável pela gestão e planejamento do trafego de veículos da cidade de São Paulo, disponibiliza 37 câmeras online ao vivo, sendo possível assim obter as imagens de qualquer horário dos últimos 7 dias.

camera de transito de cidade inteligente

[6] – http://cameras.cetsp.com.br/View/Cam.aspx

Sendo assim temos que as imagens capturadas por toda a cidade através de câmeras de trânsito são de grande valor, e podem proporcionar informações cruciais para a abertura de novos negócios ou mesmo monitoramento continuo dos padrões de transporte e locomoção da população ou de indivíduos em especifico.

Além da metrópole também é possível obter acesso direto as câmeras das principais rodovias do Estado de São Paulo, através do site do DER concessionária que gerencia as principais rodovias do estado de São Paulo. O DER disponibiliza de um total de 238 câmeras:

Câmera do DER[9] – Imagem de um caminhão na rodovia SP 008 – km: 139,000 – Pedro Astenori Mariagliani (Capitão)

http://www.der.sp.gov.br/WebSite/Servicos/ServicosOnline/CamerasOnlineMapa.aspx

Um projeto em crescente implantação na cidade de São Paulo é o City Câmera

City Câmera

 

A concessionária ViaOeste responsável por algumas das principais rodovias do Estado de São Paulo, que cruzam a cidade de São Paulo também possuem imagens em tempo real e abertas sem controle de acesso através de seu site:

[12] – Serviço de câmeras online da concessionária ViaOeste

Como evidenciado acima, é possível ter acesso a diversas câmeras que cruzam a cidade de São Paulo ao vivo e sem nenhum cadastro ou controle sobre esses dados. A ideia de que o compartilhamento de dados públicos ainda se remete aos databases da prefeitura está equivocada, frente a capacidade de processamento de dados não estruturados que temos atualmente.

 

Visão Computacional

Visão Computacional e compreensão de imagens são subcategorias da inteligência artificial, que por sua vez é a capacidade de automatizar tarefas com computadores que antes somente eram realizadas por seres humanos.

Segundo estudo de caso realizado em

[13] Introdução à Visão Computacional usando OpenCV

, é possível reconhecer textos em imagens obscuras utilizando softwares livres tais como OpenCV para tratar e realizar o processo de OCR que consiste no reconhecimento de textos em imagens, no artigo é dado o exemplo da imagem a seguir:

 

[13] –  (Fig. 1): Veículo em imagem escura (esquerda). Após uma equalização de histograma, em nível de cinza, onde a placa do veículo pode ser lida (direita). Informação da placa e do veículo no retângulo.

 

O que pode ser feito

Com a quantidade de câmeras existentes na cidade de São Paulo é possível monitorar diversas atividades, desde de viagens, idas e vindas de rotineiros de trabalho e tudo isso sem programar nada, apenas com acessos aos sites aqui referenciados. Com os conhecimentos certos é possível escrever programas de visão computacional capazes de monitorar diariamente as câmeras da cidade de São Paulo com os endereços aqui referenciados automatizando as atividades de monitoramento.

 

Privacidade e Proteção de Dados

A privacidade dos cidadãos de São Paulo está expostas e esses dados tem grande valor industrial, gerando uma guerra de interesses, de um lado a população que deseja realizar suas atividades de forma sigilosa, com o mínimo Anonimato sem que haja identificação pessoal de seus carros ou corpos em trajeto. Sendo assim, concluo que a prefeitura de São Paulo precisa realizar a descaracterização dos objetos presentes nas imagens afim de garantir a privacidade do cidadãos.

 

Vença seus maiores desafios empresariais com uma combinação de nossas soluções em Inteligência Artificial e Privacidade e Proteção de Dados

 

Se aproprie do potencial dessa e outras bases de dados combinados com os serviços de inteligência da Rox para potencializar o seu negócio! A Rox é uma empresa especializada em soluções de dados com larga experiência em inteligência artificial atuando em diversos setores tais como setor financeiro, varejo, moda, entretenimento, logística, indústria, farmacêutica, telecomunicações, óleo e gás.

Entre em contato com a gente e descubra como as nossas soluções podem ajudar o seu negócio.

Learn More

Mathias Brem
14 de outubro de 2022
Analytics

Rox Partner e Conta Simples, uma parceria que deu sucesso! Confira esse case de Analytics

Um projeto de Data Lake é sempre um gerador de valor. Organizações que implementam esse tipo de projeto de analytics aumentam consideravelmente a performance da empresa. Armazenado seus dados, estruturados e não estruturados, em um repositório, é possível realizar análises mais performáticas, machine learning em novas fontes, fluxos etc. Fazendo com que seja factível identificar as oportunidades com maior velocidade e acurácia. 

Entendendo essa necessidade, a Conta Simples contou com o apoio da Rox Partner para ajudá-la nessa jornada!

Um case de muita parceria e sucesso!  

Entenda como foi essa trajetória e experiência em uma entrevista com o Líder de Dados na Conta Simples, Anderson Dourado. Com os comentários dos colaboradores em Data & Analytics da Rox, Harry Delgado e Guilherme Tamanini, que participaram do projeto.

Anderson, conte como foi a sua experiência durante toda a jornada:

Antes mesmo de iniciar o projeto Data Lake com a Rox, que durou cerca de 6 meses, eu já possuía um conhecimento prévio sobre a empresa. Apesar de alguns ajustes terem sido feitos ao longo do caminho, os resultados foram positivos e o time foi muito eficiente em apresentar soluções rápidas e corretivas.

A forma como conduzimos o projeto foi um ponto muito positivo da jornada, a minha percepção foi que já não via a Rox como uma extensão de recursos e sim uma consultoria para ajudar nos problemas que surgiam no dia a dia. Realmente uma parceira.    

“É satisfatório poder participar de um projeto com esse nível de qualidade e de entrega, e ver o quanto pudemos contribuir e aprender. Em breve, a Conta Simples será uma companhia muito grande e alcançará grandes resultados, e poderemos dizer ‘nós participamos disso’!” Harrison Santo Delgado – Data & Analytics Rox Partner.

Quais foram os principais pontos positivos que você consegue destacar da entrega da Rox?
  • A integração do time, mostrando muita parceria e sinergia;
  • A disponibilidade de escutar e tratar os problemas;
  • O bom desempenho do time.
Qual você diria que é o diferencial da Rox?

A proximidade que a Rox manteve com o time de Dados da Conta Simples e, também, o cuidado em garantir uma sinergia internamente com seus colaboradores.   

“Foi incrível ter a oportunidade de trabalhar com uma fintech em seu momento de consolidação e ganho de escala no mercado, ainda mais pelo fato de ter participado da criação da sua plataforma de dados desde o seu início e contribuído com a sua cultura Data Driven.” Harrison Santo Delgado – Data & Analytics Rox Partner.

Quando falamos sobre boas práticas, quais seriam as melhorias que deveriam existir?

Não destacaria como pontos negativos, mas pontos a serem aprimorados, a depender inclusive do cliente em foco.

Ao longo do projeto, nossa equipe foi crescendo, evoluindo e conhecendo tecnicamente o ambiente da AWS (plataforma da Amazon). Deste modo, entendo que eles poderiam ter somado mais com os desafios técnicos do projeto Data Lake da Conta Simples.

Existe a intenção em contar com a Rox para novos desafios?

Com toda certeza! Temos a perspectiva de criar projetos e acelerar os já existentes na Conta Simples e a Rox é uma potencial parceria nessa jornada.

“Espero que outros projetos como esse apareçam, pois com certeza é a definição de projeto win-win. Saio do mesmo não só com a sensação de dever cumprido, mas também com uma bagagem enorme de conhecimento e experiências, e principalmente com novos amigos, não só ex-colegas de trabalho.” Guilherme Tamanini – Data & Analytics Rox Partner.

Qual a possibilidade de indicar a Rox para outras empresas?

Todas! Já trabalhei com muitas empresas e vi como diferencial, na Rox, a entrega e proximidade com o cliente. Espero que essa seja uma prática também com empresas maiores, pois isso é um grande diferencial do mercado.

“Em mais de 10 anos no mundo de TI, esse foi, de longe, um dos maiores desafios que já enfrentei na carreira e o resultado foi positivamente surpreendente. Somente foi possível acontecer pelo trabalho em equipe entre a Rox e o Conta Simples. Foi uma junção de esforços como se não houvesse diferença entre equipe terceirizada e funcionários da própria empresa.” Guilherme Tamanini – Data & Analytics Rox Partner.

Tenha você também um super parceiro para cuidar de seus projetos em tecnologia!

Com mais de 100 clientes atendidos e grandes parceiros, a Rox proporciona o que há de melhor para sua jornada Data Driven!

Entre em contato conosco e fale com um de nossos especialistas.

Aproveite e obtenha mais conhecimentos em nosso blog!

Learn More

Rox Partner
6 de abril de 2021
Analytics

Ciência de Dados aplicada ao mercado financeiro – Análise de estratégia de retornos positivos com uso de Regressão Linear Simples

Todos os analistas que atuam no mercado financeiro buscam, de alguma forma, predizer os próximos movimentos do mercado e conseguir retornos positivos em suas atividades. Para isso utilizam-se de dados e informações para subsidiar análises e definir estratégias de entrada e saída para suas negociações.

A minha contribuição neste post será um estudo de análise dos dados de negociações da paridade EUR x USD para a determinação de uma estratégia de rompimento do preço em relação a uma regressão linear em determinada janela de tempo. Para isso vou utilizar os dados de valor dessa paridade por hora e a linguagem de programação Python.

 

Importando módulos essenciais

Vamos começar importando as bibliotecas necessárias para a análise dos dados:

import pathlib as ph
import pandas as pd 
import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import LinearRegression
from concurrent.futures import ProcessPoolExecutor, ThreadPoolExecutor

Essas bibliotecas serão utilizadas para encontrar e importar o arquivo de dados no repositório local, plotar, calcular e multiprocessar os dados ingeridos.

 

Visualização dos Dados

Vamos seguir para um teste de conexão e visualização do arquivo de dados.

# Atribui o endereço do arquivos a uma variável
filename = ph.Path(r'C:\Users\Dell\OneDrive\Desktop\My GitHub\FOREX-Data-Science\EURUSD_H1.csv')
# Abre e atribui o arquivo a uma variável
pairs = open(filename, mode="r", encoding="utf-8", newline='\r')
# Exibe xxx caracteres do arquivo
print(pairs.read(500))
# Fecha o arquivo
pairs.close()

O arquivo chama-se EURUSD_H1.csv. A visualização nos traz informações importantes como cabeçalho, separação, tipo de dados e formatação. No nosso caso as dados no arquivo .csv tem a seguinte disposição:

Visualização da fonte de dados
 

Criação do DataFrame

Conhecemos o arquivo e agora, realizaremos a importação para um pandas dataframe. Vamos aplicar algumas formatações para facilitar a manipulação dos dados e verificar sua estrutura:

# Atribui o endereço do arquivos a uma variável
filename = ph.Path(r'C:\Users\Dell\OneDrive\Desktop\My GitHub\FOREX-Data-Science\EURUSD_H1.csv')
# Importa o arquivo como um dataframe
raw = pd.read_csv(filename, delimiter='\t', header=0, usecols=[0,2,1,5],  parse_dates={'DATETIME' : [0, 1]}, index_col=["DATETIME"]) 
# Renomeia as colunas e exibe os dados do dataframe
raw = raw.rename(columns={"DATETIME": "DATETIME" ,"<OPEN>": "OPEN", "<CLOSE>": "CLOSE"})
# Imprime a quantidade de linhas e colunas
print(raw.shape, "\n") 
# Verifica se há valores nulos no dataframe e imprime o resultado
print(raw.isnull().sum(), "\n") 
# Imprime metadados do dataframe
print(raw.info(), "\n") 

Temos um dataframe de 100039 linhas e duas colunas, com dados dos preços de fechamento de abertura e fechamento para o período entre 3 de Março de 2005 as 00:00:00 horas e 26 de Fevereiro de 2021 as 23:00:00 horas.

Informações sobre os dados importados
 

Criação de métricas iniciais

Agora vamos tornar a coisa um pouco mais interessante, vamos delimitar nossa amostra em um período de um ano (2021) e criar mais algumas informações e métricas para utilização da análise da estratégia.

# Cria novo dataframe com base em filtros no RAW dataframe
df = raw.query("DATETIME >= '2020.01.01 00:00:00' & DATETIME <= '2020.12.31 23:00:00'")
# Cria coluna de número de linhas
df.loc[:,"ROW_N"] = [*range(0,df.shape[0])]
# Cálcula o valor de escala do eixo x em função da diferença dos preços de fechamento
df.loc[:,"EIXO_X"] = np.array([*range(0,df.shape[0])]) * np.mean(np.abs(df.CLOSE.diff(periods=1)))
# Reordena colunas
df = df.loc[:,["ROW_N", "EIXO_X", "OPEN", "CLOSE"]]

Adicionamos ao dataframe uma nova coluna com o número de linhas e uma outra coluna com um valor numérico que é o somatório acumulado da média das diferenças do preço fechamento atual e do dia anterior. Nesta última, criamos uma escala para utilizar como eixo horizontal quando calcularmos a regressão linear.

Plotando nosso dataframe temos a seguinte visualização:

myStyle = { "figure.figsize": (25,10), "figure.titlesize": 20, "axes.titlesize" : 20, 
            "axes.labelsize" : 18, "legend.fontsize": 18, "lines.linewidth" : 3,
            "lines.markersize" : 10, "xtick.labelsize" : 16, "ytick.labelsize" : 16}

plt.style.use(['seaborn', myStyle]) 
plt.plot('ROW_N', "OPEN", data=df, linestyle=':', marker='o', markerfacecolor='skyblue', color='skyblue')
plt.plot('ROW_N', "CLOSE", data=df, linestyle=':', marker='o', markerfacecolor='blue', color='blue')
plt.title("EUR X USD")
plt.legend()
plt.show()
Gráfico de um período de 24horas dos valores horários de abertura (azul claro) e fechamento (azul escuro)

A linha azul escuro traz os preços de fechamento e a azul clara os preços de abertura. Vamos utilizar o preço de abertura como preço de fechamento do dia anterior. No momento 15, note a diferença entre o preço de fechamento do dia anterior e o deste dia em questão. Compare agora olhando os dados diretamente no data frame:

Dados do gráfico para fins de comparação e verificação

Chegamos ao ponto principal do estudo: definir uma estratégia de entrada e saída de negociação. Vamos avaliar os casos em que o preço de fechamento atual rompe (cruza) a regressão linear registrada neste mesmo momento

 

Criação de métricas da regressão linear simples

Precisaremos então calcular a regressão linear simples (que é uma reta) para cada preço de fechamento (CLOSE). Teremos também que definir uma janela de tempo para a regressão. O código a seguir vai calcular os coeficientes angular (LRa), linear (LRb), o valor da regressão linear (PRC) e o ângulo em graus da reta. Todas essas variáveis serão calculadas para cada janela de 13 elementos do dataframe utilizando com pontos os campos EIXO_X e CLOSE:

wd = 13 # Janela de tempo para cálculo das estatistícas móveis
# Cálculo da regressão linear
lm_model = LinearRegression() # objeto do modelo estatístico - regressão Linear
iterator1 = [*range(0,df.shape[0])]
iterator2 = [*range(0+wd-1,df.shape[0])]

def _calcula_coeficientes(a, b):
    eixo_xt = np.array(df.EIXO_X[a : b+1])
    eixo_yt = np.array(df.CLOSE[a : b+1])
    # cálcula os coeficientes do modelo
    lm_model.fit(eixo_xt.reshape(-1, 1), eixo_yt)
    # extrair e registrar o coeficiente angular (a) convertido em ângulo (graus)
    cx = lm_model.coef_[0] 
    # extrair e registrar o coeficiente angular (a) convertido em ângulo (graus)
    cxa = np.arctan(lm_model.coef_[0]) * 180 / np.pi 
    # extrair e registrar coeficiente linear (b)
    cy = lm_model.intercept_ 
    prc = cx * np.array(df.EIXO_X[b]) + cy
    
    return cx, cxa, cy, prc

with ProcessPoolExecutor() as executor:
    cx, cxa, cy, prc = zip(*executor.map(_calcula_coeficientes, iterator1, iterator2))

tmpf = pd.DataFrame({"PRC_RL": prc, "LRa":np.array(cx), "LRag":np.array(cxa), "LRb":np.array(cy)},
                    index=np.array(df.index[wd-1:]))

df = df.join(tmpf, how="outer")
df = df.fillna(0)

O dataframe agora contém as informações de 12 retas de regressão linear de 13 elementos. Usando os rótulos do nosso dataframe, a equação de cada reta de regressão linear seria: PRC_RL = LRa * EIXO_X + LRb. Já o ângulo da reta é dado por: arco-tangente(LRa) * 180 / Pi. Confira com os dados abaixo:

Exibição do dataframe com as variáveis calculadas
 

Exemplificação da estratégia: entrada na operação

Para exemplificar a estratégia de forma gráfica, a regressão linear abaixo (em vermelho) foi criada a partir da segunda janela de 13 elementos do dataframe. A coluna PRC traz todos os preços da regressão linear que estão plotadas nessa curva. Compare os valores de OPEN, CLOSE e PRC e veja que, o valor de fechamento do dia anterior (OPEN) está abaixo do valor do preço da regressão linear (PRC) e, o valor do preços de fechamento atual (CLOSE) está acima do valor do preço da regressão linear (PRC). Desta forma temos um rompimento da regressão linear para cima. Repare também que o ângulo desta regressão é de 8,11 graus (coluna LRag)

df_tmp = df[1:14]
df_tmp["PRC"] = (df_tmp.LRa[12] * np.array(df_tmp.EIXO_X)) + df_tmp.LRb[12]
plt.plot('ROW_N', "OPEN", data=df, linestyle=':', marker='o', markerfacecolor='skyblue', color='skyblue')
plt.plot('ROW_N', "CLOSE", data=df, linestyle=':', marker='o', markerfacecolor='blue', color='blue')
plt.plot('ROW_N', "PRC", data=df_tmp, linestyle='-', color='red')
plt.title("EUR X USD")
plt.legend()
Posição 13: rompimento para cima do valor da regressão linear, vindo valor de abertura para o valor de fechamento.
Segunda janela de 13 elementos
Exibição dos dados do dataframe temporário que contém os valores da reta da regressão linear.

Definimos então que a nossa estratégia de entrada será o rompimento da reta da regressão linear. Para saber quais registros no nosso dataframe atendem a essa condição fazemos:

df.query(“OPEN <= PRC_RL & CLOSE >= PRC_RL" | “OPEN >= PRC_RL & CLOSE <= PRC_RL)"

Isso será útil para levantarmos todas a possíveis operações de entrada em uma amostragem bem maior. Vamos usá-la posteriormente.

 

Exemplificação da estratégia: saída da operação

Agora vamos para a estratégia de saída da operação. Consideraremos que a saída será qualquer preço de fechamento (CLOSE [x]) menor que o preço de fechamento (CLOSE [0]) registrado no início da operação. Resumindo, após a entrada, no primeiro prejuízo (variação negativa) saímos da operação.

Olhe novamente o gráfico anterior. Note que ocorrido o rompimento da regressão linear para cima, o preço de fechamento subsequente é menor que o que o preço de entrada da operação. Dessa forma nossa operação de entrada seria interrompida logo em seguida.

Valor de fechamento subsequente a operação de entrada menor. Variação negativa. Saída da operação.

Bem, você já deve ter entendido o que vamos fazer. Após a operação de entrada, vamos guardar todas as variações dos preços subsequentes ao preço de entrada (CLOSE [0]) até que a operação seja interrompida quando ocorrer o primeiro prejuízo (variação (-)). Assim, teremos uma amostragem de todos os possíveis retornos a partir de um rompimento da regressão linear e todos os prejuízos também.

 

Obtenção dos resultados

Pegaremos um período de 1 ano e somente os rompimentos para baixo para gerar nossa amostra. Criaremos um novo dataframe chamado results_be_df:

# ângulo da reta da regressão linear
LRag_be = 0

# index de todos os cruzamentos do preço contra o preço da rl no Bear Market
ind_xbe = [*df.query("OPEN >= PRC_RL & CLOSE <= PRC_RL & LRag < %s" %(LRag_be)).ROW_N]

def _Calc_Var_BearM(i):
    df_tmp = df.query("ROW_N >= %s" %(i))
    cnt = 0
    cnt_tmp = []
    row_n= []
    close_tmp = []
    var_tmp = []
    varp_tmp = []
    for x in range(len(df_tmp)):
        row_n.append(df_tmp.ROW_N[x])
        close_tmp.append(df_tmp.CLOSE[x])
        var_tmp.append(df_tmp.CLOSE[0] - df_tmp.CLOSE[x])
        cnt_tmp.append(cnt)
        cnt += 1
        if (df_tmp.CLOSE[0] - df_tmp.CLOSE[x]) < 0: break
    
    return pd.DataFrame({"ROW_N": row_n, "COUNT": cnt_tmp, "CLOSE": close_tmp,
                         "CLOSE_X": df_tmp.CLOSE[0], "VAR": var_tmp})

with ProcessPoolExecutor(4) as executor:
    r2 = executor.map(_Calc_Var_BearM, ind_xbe)

results_be_df = pd.concat(r2, ignore_index=True)

Vamos analisar uma parte dos dados gerados:

Parcial do dataframe result_be_df.

A coluna COUNT mostra a contagem do início até o final da negociação, ou seja, a entrada, as possibilidades de retorno e a saída da operação, enquanto que, a coluna VAR, traz a variação de cada valor do preço de fechamento (CLOSE) em relação ao preço de entrada na operação (CLOSE_X). Portanto, a operação iniciada no registro 27, ofereceu 7 oportunidades de ganho antes de ser interrompida com prejuízo no oitavo registro.

 

Análise dos resultados

Com base nesse raciocínio, vamos olhar todos os resultados de uma só vez de forma gráfica. No período de 1 ano (2021), temos 487 rompimentos para baixo da regressão linear. Vamos separar a amostragem dos resultados positivos dos resultados negativos.

rownp3 = results_be_df.query("VAR > 0").ROW_N.count()
rownn4 = results_be_df.query("VAR < 0").ROW_N.count()

plt.figure(figsize=(25,8))

plt.subplot(2,2,1, title=r"BOX PLOT BEAR MARKET - EUR x USD - VAR(-) | Sample: %s" %(rownn4))
plt.boxplot([*results_be_df.query("VAR < 0").VAR], showfliers=False)

plt.subplot(2,2,2, title=r"BOX PLOT BEAR MARKET - EUR x USD - VAR(+) | Sample: %s" %(rownp3))
plt.boxplot([*results_be_df.query("VAR > 0").VAR], showfliers=False)

plt.subplot(2,2,3, title=r"HISTOGRAM BEAR MARKET - EUR x USD - VAR(-) | Sample: %s" %(rownn4))
plt.hist(results_be_df.query("VAR < 0").VAR, bins=100, density=False)

plt.subplot(2,2,4, title=r"HISTOGRAM BEAR MARKET - EUR x USD - VAR(+) | Sample: %s" %(rownp3))
plt.hist(results_be_df.query("VAR > 0").VAR, bins=100, density=False)

plt.show()

Para os resultados positivos temos 16250 possibilidades de retorno em 487 operações iniciadas. Abaixo temos a descrição e a distribuição da amostra.

Estatísticas e descrição dos resultados positivos.

Para os resultados negativos temos os seguintes resultados:

Estatísticas e descrição dos resultados negativos.

Pela comparação dos dados positivos e negativos, pela amplitude e quantidade de retornos positivos e negativos, podemos concluir que há reais possibilidades de retornos financeiros positivos com essa estratégia. Podemos expandir a simulação para um período muito maior e, ou ainda utilizar o ângulo da reta da regressão linear como mais uma variável a ser inserida nessa modelagem.

Até aqui acredito que as informações foram suficientes para prosseguir com um estudo mais aprofundado e também aplicação de Machine Learning. Esses tópicos serão abordados em posts futuros.

 

Learn More

Rodrigo Azevedo
23 de março de 2021
Analyticsbanco de dadosCloudInfraestrutura

A Jornada Data Driven e como aplicá-la a sua empresa

Vivemos em uma época em que, com o avanço rápido da tecnologia de um modo geral – e especialmente da tecnologia de coleta de dados -, muito se fala sobre o uso de dados por parte dos mais diversos tipos de empresas. Todos os dias aparecem novas informações, reportagens, eventos e pesquisas sobre esse tema; às vezes, é tanta coisa que fica difícil de acompanhar. Você provavelmente já ouviu falar sobre a importância do uso de dados para o desenvolvimento do seu negócio, mas pode ser que não tenha nem ideia de como começar a utilizá-los como uma ferramenta para o sucesso da tomada de decisões e desenvolvimento de novas estratégias. Para compreender o valor da inteligência de dados, primeiro, é preciso compreender o valor que essas informações podem agregar.

 

Por que dados são tão importantes?

Ainda há pouco tempo, a tomada de decisões de negócios nas empresas era muito mais realizada pelo feeling, pelo achismo. Confiar no achismo pura e simplesmente, mesmo tendo um montante de informações disponíveis, faz com que as resoluções de quaisquer questões sejam realizadas de maneira ineficiente; resultando em tomadas de decisões importantes baseadas em dados imprecisos. As coisas mudaram quando concluiu-se que os dados conseguem dar respostas muito mais precisas para os problemas que a empresa pode ter com seus produtos, atendimento e estratégia, indicando possíveis rumos a serem seguidos. Se muito bem trabalhados e interpretados, os dados conseguem trazer valor para qualquer organização, independente do segmento e porte.

O trabalho de análise, qualificação e seleção  dos dados extraídos pela sua empresa pode fazê-lo encontrar a informação que você precisa para solucionar um problema em seus mais diversos aspectos. Por exemplo, por meio da interação dos clientes por redes como o WhatsApp, LinkedIn, Instagram ou qualquer outro meio de comunicação, é possível aplicar técnicas de mineração de dados; melhorando assim produtos, serviços e, consequentemente, a experiência do cliente. “Por isso que os dados são tão valiosos, principalmente quando respondem perguntas de negócios”, afirmou o Roxpert, Romerito Morais, engenheiro de dados e análise.

 

A Cultura Data Driven

De forma sucinta, a Cultura Data Driven é quando uma empresa incorpora o uso de dados para realizar tomadas de decisões em seus negócios. Baseia-se em uma longa jornada, desde a compreensão do seu negócio, captura dos dados, sua aquisição, integração, aperfeiçoamento e análise completa por parte das mais diversas áreas da empresa. Trata-se de um extenso processo  de transformação cultural de qualquer organização, para que os dados obtidos no dia a dia sejam convertidos  em informações de alta relevância e utilizados estrategicamente. Dessa forma, todas as divisões da sua empresa conseguirão responder às perguntas e tomar as melhores decisões.

Porém, para que a Jornada Data Driven possa agregar os resultados esperados, é preciso compreender suas necessidades para traçar objetivos a serem atingidos e, quando falamos de empresas, inevitavelmente estamos falando de compreender pessoas, processos e tecnologia. É preciso haver um investimento massivo em cada setor para que as pessoas recebam treinamento especializado para saberem lidar com dados em seus mais diferentes aspectos.
Saber identificar esses pontos de melhoria e encontrar as respostas por meio do big data analytics pode ser um grande desafio, devido ao enorme montante de informações que são produzidas diariamente por meio dos mais diversos canais. Portanto, contratar mão de obra especializada o suficiente para extrair os insights necessários é uma operação demorada e de alto custo. Em contrapartida, fazer com que uma ou mais pessoas inexperientes efetuem todo o trabalho de coleta, armazenamento e análise sem ter conhecimento a fundo de processamento de dados, controle de qualidade e business pode levar a empresa a ter prejuízos irreversíveis.

 

 

E é aí que a Rox entra!

A Rox Partner tem como propósito transformar todos os dados das empresas em ativos. Para isso, é garantida a construção de arquiteturas em nuvem ou on-premises com  governança de dados, para que todo o processo de engenharia e ciência de dados sejam suportados. O processo da Jornada Data Driven da Rox é 100% realizado por  especialistas em Big Data e Analytics, divididos em diversas equipes de trabalho específico, para que seus dados sejam perfeitamente transformados nas informações que seu negócio precisa.
De acordo com o Roxpert Romerito Morais, o processo consiste, primeiramente, em um trabalho de investigação. “Estamos sempre falando muito de dados, mas geralmente o maior problema das empresas não é a ausência de dados. O problema é  que esses dados estão todos espalhados pela empresa, sejam em planilhas eletrônicas, ERPs, CRMs, sistemas de e-commerce etc.”, explica. “Por isso, mapeamos os processos, identificamos as métricas de avaliação, quais os principais problemas que ela tem enfrentado e o que ela espera como resultado”.

Após todo o mapeamento dos negócios, é iniciado o trabalho de mapeamento das fontes de dados, conversa com pessoas chave de dentro da organização e definição de quem será o responsável pelo projeto. A equipe de engenharia de dados vai coletar os dados mapeados de todos os locais em que a empresa os consome e os mesmos serão armazenados em data lakes. Então, estes dados são submetidos a um rigoroso processo de controle de qualidade, em que são filtrados, enriquecidos, refinados e catalogados.
Após esse controle, os dados são armazenados em data warehouse e separados por data marts que, por sua vez, são dados organizados pelos setores da empresa na qual vão ser usados para responder às perguntas em questão. Substancialmente, a Rox se dispõe a realizar todo o processo da jornada: aquisição e transformação dos dados até deixá-los ideais para que o cliente possa tomar decisões e encontrar as melhores soluções.

 

Fique por dentro das notícias por meio das nossas redes sociais:

 

 

Learn More

Rox Partner
Posts recentes
  • Alfabetização de Dados: A importância do Data Literacy para sua empresa
  • Confira 6 Tecnologias utilizadas na Copa do Mundo do Catar 2022
  • Privacidade e Anonimato em Cidades Inteligentes
  • Ambiente Multi-cloud: O que é e por que precisamos de vários ambientes em nuvem?
  • Rox Partner e Conta Simples, uma parceria que deu sucesso! Confira esse case de Analytics
Soluções

Categorias
  • Analytics (5)
  • apps (1)
  • banco de dados (21)
  • blog (1)
  • business (2)
  • Cloud (4)
  • Infraestrutura (4)
  • Privacidade (1)
Tags
app Armazenamento de arquivos backup diferencial backup full backup log banco de dados bigdata cloud database data driven data engineering Delta Lake DML engenharia de dados etl ingestion mobile monitoramento mydumper nifi optane retenção script Spark SQL sqlserver sql server Storage Engine streamsets wallet

White Papers

Baixe Aqui
Localização
Av. Dr. Chucri Zaidan, 1550
Conjunto 2105
CEP 04711-130
São Paulo - Brasil
Contato
   contato@roxpartner.com
   +55 11 4040-8250
Newsletter

    Copyright © 2022 ROX Partners by lab212. All Rights Reserved

    #softlab_soc_icon_wrap_63d52c8ef223c a{ background: #fcb813; border-color: #fcb813; }#softlab_soc_icon_wrap_63d52c8ef223c a:hover{ background: #57a5be; border-color: #57a5be; }.softlab_module_social #soc_icon_63d52c8ef22801{ color: #ffffff; }.softlab_module_social #soc_icon_63d52c8ef22801:hover{ color: #ffffff; }.softlab_module_social #soc_icon_63d52c8ef22801{ background: #fcb813; }.softlab_module_social #soc_icon_63d52c8ef22801:hover{ background: #57a5be; }.softlab_module_social #soc_icon_63d52c8ef22be2{ color: #ffffff; }.softlab_module_social #soc_icon_63d52c8ef22be2:hover{ color: #ffffff; }.softlab_module_social #soc_icon_63d52c8ef22be2{ background: #fcb813; }.softlab_module_social #soc_icon_63d52c8ef22be2:hover{ background: #57a5be; }.softlab_module_social #soc_icon_63d52c8ef22ce3{ color: #ffffff; }.softlab_module_social #soc_icon_63d52c8ef22ce3:hover{ color: #ffffff; }.softlab_module_social #soc_icon_63d52c8ef22ce3{ background: #fcb813; }.softlab_module_social #soc_icon_63d52c8ef22ce3:hover{ background: #57a5be; }.softlab_module_social #soc_icon_63d52c8ef22f14{ color: #ffffff; }.softlab_module_social #soc_icon_63d52c8ef22f14:hover{ color: #ffffff; }.softlab_module_social #soc_icon_63d52c8ef22f14{ background: #fcb813; }.softlab_module_social #soc_icon_63d52c8ef22f14:hover{ background: #57a5be; }@media only screen and (max-width: 768px){ #softlab_spacer_63d52c8ef2b92 .spacing_size{ display: none; } #softlab_spacer_63d52c8ef2b92 .spacing_size-tablet{ display: block; } }@media only screen and (max-width: 480px){ #softlab_spacer_63d52c8ef2b92 .spacing_size{ display: none; } #softlab_spacer_63d52c8ef2b92 .spacing_size-mobile{ display: block; } }
    Usamos cookies em nosso site para oferecer uma experiência mais relevante, lembrando suas preferências e visitas repetidas. Ao clicar em “Aceitar Tudo”, você concorda com o uso de TODOS os cookies. No entanto, você pode acessar as "Configurações de Cookies" para fornecer um consentimento controlado. Para mais detalhes acesse nossa Política de Privacidade.
    CONFIGURAÇÕES DE COOKIESACEITAR TODOS
    Política de Privacidade & Cookies

    Privacidade & Cookies

    Este site usa cookies para melhorar sua experiência de navegação. Destes, os cookies categorizados como Necessários são armazenados no seu navegador, pois são essenciais para o funcionamento de funções básicas do site. Também usamos cookies de terceiros que nos ajudam a analisar e entender como você usa este site e esses cookies serão armazenados no seu navegador apenas com o seu consentimento. Você também tem a opção de desativar esses cookies, mas a desativação de alguns deles pode afetar sua experiência de navegação.
    Necessário
    Sempre ativado
    Os cookies necessários são absolutamente essenciais para o bom funcionamento do site. Esses cookies garantem funcionalidades básicas e recursos de segurança do site, anonimamente.
    CookieDuraçãoDescrição
    _GRECAPTCHA5 meses e 27 diasEste cookie é definido pelo serviço de recaptcha do Google para identificar bots para proteger o site contra ataques de spam maliciosos.
    cookielawinfo-checkbox-advertisement1 anoEste cookie é usado para registrar o consentimento do usuário para os cookies na categoria "Anúncio", caso existam.
    cookielawinfo-checkbox-analytics11 mesesEste cookie é usado para armazenar o consentimento do usuário para os cookies na categoria "Analytics", caso existam.
    cookielawinfo-checkbox-functional11 mesesEste cookie é usado para armazenar o consentimento do usuário para os cookies na categoria "Funcionais", caso existam.
    cookielawinfo-checkbox-necessary11 mesesEste cookie é usado para armazenar o consentimento do usuário para os cookies na categoria "Necessário", caso existam.
    cookielawinfo-checkbox-others11 mesesEste cookie é usado para armazenar o consentimento do usuário para os cookies na categoria "Outros", caso existam.
    cookielawinfo-checkbox-performance11 mesesEste cookie é usado para armazenar o consentimento do usuário para os cookies na categoria "Performance", caso existam.
    viewed_cookie_policy11 mesesO cookie é usado para armazenar se o usuário consentiu ou não o uso de cookies. Ele não armazena nenhum dado pessoal.
    Analytics
    Os cookies analíticos são usados para entender como os visitantes interagem com o site. Esses cookies ajudam a fornecer informações sobre métricas de número de visitantes, taxa de rejeição, origem de tráfego, etc.
    CookieDuraçãoDescrição
    _ga2 anosO cookie _ga, instalado pelo Google Analytics, armazena informações anonimamente e atribui um número gerado aleatoriamente para reconhecer visitantes únicos.
    _ga_4RLBM0693H2 anosEste cookie é instalado pelo Google Analytics.
    _gat_gtag_UA_172713136_11 minutoDefinido pelo Google para distinguir usuários.
    _gid1 diaInstalado pelo Google Analytics, o cookie _gid armazena informações sobre como os visitantes usam um site, além de criar um relatório de análise de desempenho. Alguns dos dados coletados incluem o número de visitantes, sua fonte e as páginas que eles visitam anonimamente.
    _rdtrk9 anos 10 meses 14 dias 11 horas e 3 minutosUtilizado pelo RD Station para manter uma lista de todas as páginas que um visitante acessou dentro do domínio.
    CONSENTIMENTO2 anosO YouTube define esse cookie por meio de vídeos do youtube incorporados e registra dados estatísticos anônimos.
    rdtrk1 anoUtilizado pelo RD Station para manter uma lista de todas as páginas que um visitante acessou dentro do domínio.
    UID2 anosA Scorecard Research define esse cookie para pesquisa de comportamento do navegador.
    Anúncio
    Os cookies de publicidade são usados para fornecer aos visitantes anúncios e campanhas de marketing relevantes. Esses cookies coletam informações para fornecer anúncios personalizados.
    CookieDuraçãoDescrição
    VISITOR_INFO1_LIVE5 meses e 27 diasUm cookie definido pelo YouTube para medir a largura de banda que determina se o usuário obtém a interface do player nova ou antiga.
    YSCsessãoO cookie YSC é definido pelo Youtube e é usado para rastrear as visualizações de vídeos incorporados nas páginas do Youtube.
    yt-remote-connected-devicesnão expiraO YouTube define esse cookie para armazenar as preferências de vídeo do usuário usando o vídeo incorporado do YouTube.
    yt-remote-device-idnão expiraO YouTube define esse cookie para armazenar as preferências de vídeo do usuário usando o vídeo incorporado do YouTube.
    Outros
    São cookies não categorizados, aqueles que estão sendo analisados e ainda não foram classificados em uma categoria específica.
    CookieDuraçãoDescrição
    __trf.src1 anoUtilizado pelo RD Station, esse cookie guarda a referência da origem da visita do usuário ao site.
    SALVAR E ACEITAR
    Desenvolvido por CookieYes Logo
    Preencha os campos abaixo para realizar o download