Retirando o WARN de Conexão SSL com o RDS Amazon / MySQL no Pentaho Data Integration

Em algum projetos que temos trabalhado com o RDS da Amazon ( que nada mais é o serviço baseado no Banco de Dados MySQL ) com Driver MySQL 5.1.40,  recebíamos alerta de conexão quando não usávamos certificados SSL nas conexões JDBC do Pentaho Data Integration.

Establishing SSL connection without server’s identity verification is not recommended. According to MySQL 5.5.45+, 5.6.26+ and 5.7.6+ requirements SSL connection must be established by default if explicit option isn’t set. For compliance with existing applications not using SSL the verifyServerCertificate property is set to ‘false’. You need either to explicitly disable SSL by setting useSSL=false, or set useSSL=true and provide truststore for server certificate verification

Para retirar este WARN basta configurar uma options de conexão ( que a própria mensagem do WARN especifica)

  1. Acesse a sua conexão no PDI na Aba Views -> Conexões e Seleciona a conexão do seu ETL com o MySQL e clique em Editar.
  2. O Box do Database Conection será aberto , acesse no menu a opção Options e inclua o Parâmetro (parameter)  UseSSL com o Valor(Value) false conforma imagem a seguir.parameter-pentaho-data-integratio-mysql-useSSL
  3. Salve sua conexão e teste , verás que não será mais emitido o WARN.
  4. caso queira fazer conexão segura com o MySQL ler esta documentação :
    Using Encrypted Connectionshttps://dev.mysql.com/doc/refman/5.7/en/encrypted-connections.html

Connecting Securely Using SSLhttps://dev.mysql.com/doc/connector-j/5.1/en/connector-j-reference-using-ssl.html

Espero ter ajudado ! Conheça nosso Treinamento exclusivo de Pentaho Data Integration 🙂

 

 

 

 

Publicado em Pentaho, Pentaho Data Integration ( Kettle ) | Com a tag , , , , , | Deixe um comentário

Apresentação: Incorporando painéis do Pentaho em um aplicativo Alfresco ADF

Pentho e Alfresco ADF

Abaixo um resumo e os slides da apresentação que aconteceu na DevCon 2018, que foi realizada pelo Francesco Corti da Alfresco e o Pedro Vale Hitachi Vantara ( Pentaho )

Resumo:

A integração entre Alfresco e Pentaho existe desde 2012, começando com um projeto comunitário (chamado A.A.A.R.) e continua hoje com dezenas de instalações e projetos bem-sucedidos.

Como muitos desenvolvedores sabem, a Pentaho é uma plataforma de Business Intelligence de código aberto, extremamente flexível para desenvolver seus próprios relatórios, painéis e análises em geral. Menos desenvolvedores sabem que o Pentaho também é muito fácil de se integrar com aplicativos de terceiros. Tudo isso, graças a uma API poderosa e um uso inteligente de um arquivo de JavaScript e do módulo de JavaScript RequireJS (http://requirejs.org/).

Nestes  Slides, Francesco (inventor do AAAR antes e Alflytics – http://fcorti.com/alflytics/ hoje) e Pedro (VP de Engenharia para Pentaho Data Integration e Business Analytics Platform no Hitachi Vantara) mostrarão, como incluir todos os painéis Pentaho em um aplicativo ADF genérico, usando alguns Componentes do ADF que poderão entrar, sair e mostrar os recursos do Pentaho.

Slides:

Vídeo Demo

Fontes

Github : https://github.com/fcorti/pentaho-dashboard-project

 

Mais apresentações da DevCon

https://community.alfresco.com/docs/DOC-7294-devcon-2018-presentations?platform=hootsuite

Sobre a Ambiente Livre

A Ambiente Livre é a única empresa brasileira especialista nas duas plataformas em comjunto ( Alfresco e Pentaho ) , caso precise de consultoria e treinamento em Alfresco ou Consultoria e Treinamento em Pentaho ou agora em Alfresco ADF estamos a disposição.

 

 

Publicado em Alfresco, Pentaho | Com a tag , , , , | Deixe um comentário

THL Anuncia aquisição da Alfresco Software Inc.

aquisicao-alfresco-thlA Alfresco Software, Inc. anunciou hoje que está sendo adquirida pela empresa de private equity Thomas H. Lee Partners (Conhecida pela sigla “THL”).

Do que se trata?

As empresas de “private equity” são investidores – eles compram empresas com a intenção expressa de vender essa empresa no futuro para obter lucro. Isso é muito diferente do que se a Alfresco tivesse sido adquirida por uma empresa de tecnologia maior ou concorrente no espaço ECM ou se tivesse arrecadado fundos através de um IPO.

Quase certo ?

A transação está sujeita às condições habituais de fechamento e às aprovações regulatórias e deverá fechar no primeiro trimestre de 2018. Os termos da transação não foram divulgados.

O que diz o Presidente da Alfresco ?

“Estamos entusiasmados com a oportunidade de se associar à THL – uma empresa com um histórico impressionante de empresas de serviços de informação e tecnologia de sucesso bem sucedidas”

disse Doug Dennerline, diretor-presidente da Alfresco.

“Com a experiência profunda da indústria da THL, experiência operacional e orientação estratégica, estaremos bem posicionados para expandir nossa plataforma, construir nosso espaço nos mercados de gerenciamento de conteúdo corporativo e automação de processos de negócios e continuar oferecendo aos clientes o melhor da classe serviço que eles conheceram e esperam”

E a versão Community ?

Está e uma grande dúvida, a custo prazo não devemos ter nenhuma mudança! A Alfresco chegou a onde chegou por causa de estratégia Open Source, e abandonar agora não seria uma boa opção, na verdade seria um erro, porém temos de aguardar as cenas dos próximos capítulos! Ainda está muito recente e provavelmente haverão nos próximos dias novas manifestações, .

  O que faço para garantir uma versão Community e Open Source ?

Inicialmente eu diria , faça código! Se a Alfresco tomar qualquer ação para ser totalmente “Cloused Software” estaremos prontos para um fork ( não é uma ameaça, e sim uma realidade )!  no momento eu me juntei a  Comunidade “Order of the Bee”  !

Não tenho acompanhado como anda a Comunidade  (http://orderofthebee.org/ ) mas algo me diz que teremos novos integrantes por estes dias , que compactuam com todas as ideologias desta comunidade de Hackers em Alfresco!

O que acham de AlfBee ECM e ActBee BPM ? não .. não …  ainda são somente pensamentos vazios! eu acredito na Alfresco e no poder do Open Source para as corporações, estaremos juntos! …juntos com os fontes…  😉

Eu acabei de me cadastrar  e mandei os resumos abaixo:
Descrevam suas colaborações a Comunidade Alfresco e vamos fazer parte !!

joinrequest-orderoffthebee

Summary

I am a software developer, lecturer, teacher and trainer of open source technologies and free software, I use alfresco for approximately 10 years, minister training and lectures on Alfresco and Activiti, besides providing services and consultancy especially in the community version. I made some small code bundles to the project with plugins and translations.

What have you done for Alfresco and its community?

Articles and information about Alfresco in
 http://blogs.ambientelivre.com.br/marcio/category/alfresco/

Plugins and Integrations Open Source Software:
https://github.com/ambientelivre/Alfresco-DataDictionary-pt_BR
https://github.com/ambientelivre/multi-authentication
https://github.com/ambientelivre/ThemeSugarAlfresco

Lectures at technology events
https://pt.slideshare.net/ambientelivre/alfresco-ecm-e-gesto-eletrnica-de-documentos-open-source
http://blogs.ambientelivre.com.br/marcio/palestra-sobre-o-cmf-drupal-integrado-ao-ecm-alfresco-por-cmis/
https://www.slideshare.net/ambientelivre/integrando-o-drupal-com-o-ecm-alfresco-usando-cmis

 

Sobre a Alfresco Software, Inc.

A Alfresco Software, Inc. (“Alfresco”) é uma empresa de softwares de código aberto dedicada ao avanço do fluxo de negócios digitais. A empresa oferece uma maneira melhor e mais fácil para as pessoas trabalhar, certificando-se de que eles têm a informação de que precisam, exatamente quando elas mais precisam. A Alfresco Digital Business Platform é usada para digitalizar processos, gerenciar conteúdo e gerenciar informações de forma segura. A Alfresco ajuda mais de 1.300 organizações líderes do setor, incluindo Cisco, Bank of NY Mellon, Liberty Mutual, Capital One, US Department of Navy e NASA, sejam mais receptivos e competitivos. Fundada em 2005, Alfresco tem sede nos Estados Unidos em San Mateo, Califórnia, e sede européia em Maidenhead, no Reino Unido. Para obter mais informações sobre a Alfresco, visite http://www.alfresco.com .

Sobre Thomas H. Lee Partners, LP

Thomas H. Lee Partners, LP (“THL”) é uma empresa de private equity de primeira linha que investe em empresas de crescimento médio do mercado, sediadas na América do Norte, exclusivamente em quatro setores da indústria: Business & Financial Services, Consumer & Retail, Healthcare e Media, Serviços de informação e tecnologia. Usando o conhecimento de domínio profundo da empresa e as capacidades operacionais internas do seu Strategic Resource Group, a THL procura criar vantagens de oferta de negócios e acelerar o crescimento e melhorar as operações em suas empresas de portfólio em parceria com equipes de gerenciamento. Desde a sua fundação em 1974, a THL arrecadou mais de US $ 22 bilhões em capital próprio, adquiriu mais de 140 empresas de portfólio e completou mais de 360 aquisições complementares que coletivamente representam um valor combinado da empresa no momento da aquisição de mais de US $ 200 bilhões.

 

Fontes:

Alfresco Acquired by Private Equity Firmhttps://ecmarchitect.com/archives/2018/02/08/4324

Thomas H. Lee Partners to Acquire Alfresco Software https://finance.yahoo.com/news/thomas-h-lee-partners-acquire-160000078.html

Thomas H. Lee Partners to Acquire Alfresco Softwarehttps://www.businesswire.com/news/home/20180208005437/en/

Publicado em Alfresco, Open Source | Com a tag , , | 2 Comentários

Vaga: Desenvolvedor Java Pleno/Senior – BPMs Camunda

camunda-bpm-platform

O Mercado de BPMs esta começando a esquentar no Brasil, e as soluções Open Source de BPMs comeác a se destacar entre projetos novos que são implementados em grandes corporações. O Camunda BPM ( um fork do Alfresco Activiti) tem sido uma opção para empresas que querem gerir seus processos usando um motor de BPMs integrado a aplicações corporativas, abaixo mais uma vaga onde o Camunda BPM é exigido anunciada por um parceiro!

Desenvolvedor Java Pleno/Senior

Buscamos Desenvolvedores Java níveis Pleno e Senior;

Requisitos:

  • Experiência em Suites BPM,
  • Possuam contato com BPM Camunda.
  • O conhecimento em Camunda é impreterível.

Vínculo: PJ ou Autônomo Tempo: Indeterminado

Localização: Taboão da Serra – SP Aos interessados, enviar CV com pretensão salarial para : edgar.silva@pasqualisolution.com.br

 

Sempre quando tiver vagas acompanhe o Blog ou meu linkedin https://www.linkedin.com/in/mvieira1/ que estarei usando estes canais para divulgar vagas de tecnologias Open Source ou Free Software.

 

 

Publicado em Activiti | Com a tag , , | Deixe um comentário

Lançado Alfresco Community Edition 6.0

alfresco6-ambientelivreOlá Pessoal a versão 6.0 do Alfresco já está no repositório do Sourceforge.net https://sourceforge.net/projects/alfresco  e já pode ser baixada, a mesma ainda esta bem próxima da linha da versão 5.2 ( com o Alfresco Content Repository 6.0. ) e teremos um novo lançamento em janeiro então recomendo aguardar qualquer tipo de atualização para janeiro! porem aos curiosos e viciados em Alfresco como eu podem já ver como esta ficando a versão 6 que terá algumas alterações significativas. Os nossos treinamentos de Alfresco e Activiti serão atualizados em Fevereiro de 2018 para a versão 6.0 ( Alfresco)  e 7.0 ( Activiti ) , saiba mais sobre a formação que mais prepara os usuários e desenvolvedores para usar Alfresco : http://www.ambientelivre.com.br/treinamento/alfresco-ecm-open-source.html

Organização de códigos e nomes de pacotes

O código-fonte do repositório foi migrado do Subversion para o Git. Estamos liberando nossas novas estruturas de código, incluindo repositórios públicos do GitHub. Como parte deste processo:

  • A base do código foi dividida em projetos menores que produzem artefatos intermediários com seu próprio controle de versão.
  • A designação dos artefatos mudou. Os artefatos de alto nível incluem “comunidade” para esclarecer que eles são de código aberto (os artefatos proprietários incluem “serviços de conteúdo” em seus nomes).
  • Os artefatos Early Access são criados a partir de um POM separado que inclui uma EA nos nomes.

Heartbeat

As instâncias do Alfresco Content Services enviam um relatório de status “heartbeat” que o Alfresco Software usa para tomar decisões sobre esses produtos. Melhoramos os heartbeat para reportar informações mais detalhadas para que possamos evoluir o produto de forma a oferecer maior valor aos nossos clientes. Como parte deste processo, incluímos o novo heartbeat na Alfresco Community Edition para que possamos entender melhor como nossos usuários de código aberto interagem com o produto. Isso nos permitirá incluir as necessidades de nossa comunidade de código aberto em nossa tomada de decisões e avaliar melhor o valor do nosso investimento em nossos produtos de código aberto.

O novo serviço de heartbeat substituirá o método anterior “Tracking Pixel” de Community Edition Usage Tracking . Ele adiciona uma propriedade global “heartbeat.enabled” que atualmente está configurado como falso e desabilita a funcionalidade do batimento cardíaco.

A longo prazo, planejamos disponibilizar essa informação aos administradores da Alfresco Community Edition para que possam entender melhor o uso de seus depósitos.

APIs REST melhoradas

Novos pontos finais (desde ACS 5.2.1 e Alfresco Community Edition 201707) incluem:

  • Auditoria
    • GET / audit-applications – Lista de aplicativos de auditoria
    • GET / audit-applications / {auditApplicationId} – Obter informações de aplicativos de auditoria
    • PUT / audit-applications / {auditApplicationId} – Atualize informações da aplicação de auditoria
    • GET / audit-applications / {auditApplicationId} / audit-entries – Lista de entradas de auditoria para um aplicativo de auditoria
    • DELETE / audit-applications / {auditApplicationId} / audit-entries – Excluir permanentemente as entradas de auditoria para um aplicativo de auditoria
    • GET / audit-applications / {auditApplicationId} / audit-entries / {auditEntryId} – Obter entrada de auditoria
    • DELETE / audit-applications / {auditApplicationId} / audit-entries / {auditEntryId} – Excluir permanentemente uma entrada de auditoria
    • GET / nodes / {nodeId} / audit-entries – Lista de entradas de auditoria para um nó
  • Avatar
    • GET / people / {personId} / avatar – Obter imagem do avatar
    • PUT / people / {personId} / avatar – Atualize a imagem do avatar
    • DELETE / people / {personId} / avatar – Exclua a imagem do avatar

Remoção de recursos

Devido às preocupações com a segurança do protocolo, é provável que versões futuras removam CIFS / SMBv1 e NTLMv1. Para mais detalhes, veja: Mudando de SMB para WebDAV .

Fontes e mais informações :

What’s new in Alfresco Community Edition 6.0

https://community.alfresco.com/docs/DOC-7144-alfresco-community-edition-60

Alfresco Community Edition 201711 EA

https://community.alfresco.com/docs/DOC-7212-unreleased-alfresco-community-edition-201709-ea

Alfresco Community Edition 201711 EA file list

https://community.alfresco.com/docs/DOC-7231-alfresco-community-edition-201711-ea-file-list

Publicado em Alfresco | Deixe um comentário

Oportunidade: Desenvolvedor Pentaho Profissional em Curitiba

Pentaho

Um parceiro está buscando Desenvolvedor Pentaho Profissional irá atuar com a ferramenta Pentaho em projeto de Business Intelligence (BI) para cliente em Curitiba.

Requisitos Imprescindíveis:

  • Experiência em Pentaho.
  • Experiência em ter participado de projeto de indicadores com Dashboards em Pentaho.
  • Conhecimentos técnicos da plataforma Pentaho para auxiliar também no planejamento da solução junto ao cliente.

Diferencial:

  • Experiência em importação de dados de outras fontes para o Pentaho.
  • Conhecimentos de programação para plataforma Windows.

enviar currículo para fernanda@visionnaire.com.br

Publicado em Pentaho | Deixe um comentário

Query MDX no Mondrian com Range de Data ( Período ) – Saiku JPivot no Pentaho

Simplesmente adicione dois pontos entre o Range que precisa, como achei poucas referencias decidi compartilhar aqui! Testei no Saiku e no JPivot do Pentaho Server ( deve funcionar em todos pois a execução é no Mondrian)

Exemplo do MDX com RANGE:

WITH
SET [~ROWS] AS
{[Periodo].[2017].[2].[3].[JUL].[2017-07-01] : [Periodo].[2017].[2].[3].[JUL].[2017-07-05]}
SELECT
NON EMPTY {[Measures].[Valor]} ON COLUMNS,
NON EMPTY [~ROWS] ON ROWS
FROM [Corridas]

 

Estou usando o Componente Data Range Input Component no CDE que também vai exigir um JS para formatar a Data para o modelo MDX , dicas neste artigo: http://pentaho-bi-suite.blogspot.com.br/2015/02/playing-with-date-format-in-date.html

 

Publicado em mondrian, Pentaho | Com a tag | Deixe um comentário

Acessando Documentos no Drive da Google com Pentaho Data Integration

Planilha Google Driver e Pentaho

Quando eu estava realizando um treinamento avançado de Pentaho em um cliente na cidade de Recife, aqui no Brasil, um dos alunos me solicitou uma dica de como acessar planilhas eletrônica que foram desenvolvidas  no Google Docs e armazenadas no Drive, usando o PDI ( Pentaho Data Integration ) , de primeira mão já afirmei que poderia usar a API do Google  e o Pentaho Data Integration para interagir , mas como sempre o projeto Kettle e o Software Livre me surpreendem, acessando o Marketplace lá estava um plugin prontinho para isso desenvolvido por Brian Zoetewey!

O mesmo tem alguns passos de acesso e segurança  a serem configurados que o torna um pouco mais complicado que acessa uma planilha local ( faz sentido! ) , mas uma vez feito os demais são simples de usar.

Bom vamos lá a algumas dicas de como usa-lo!

Obs. Este post esta funcional para a versão 7.1 do PDI caso queira instalar manualmente para versões superiores adicionei o step em https://github.com/ambientelivre/pdi-google-spreadsheet-plugin/blob/master/step/PentahoGoogleSheetsPlugin-4.1-distribution.zip irei atualizar para versões novas quando possível.

  1. Primeiramente inicie seu Spoon/PDI,  e no menu Tools -> Markteplace , procure por Google na pesquisa e clique em install no plugin  Google SpreadSheet  input/Output.

    google-driver-pentaho-data-integration-marketplace



  2. Confirme a instalação do plugin e aguarde a instalação finalizar

    install-google-drive-confirmacao-pentaho


  3. Uma mensagem será emitida após a instalação solicitando que reinicie o Pentaho Data Integration / Spoon

    google-drive-pentaho-data-integration-marketplace


  4. Depois de Reiniciar crie uma nova transformação no PDI, e inclua um Google Spreadsheet Input e deve informar um Email de Serviço do Google ( não é sua conta de gmail deve vegar este id email de serviço) e deve importar uma Chave ou Private Key no formato p12 ( já iremos explicar como gerar o id e chave da API )

    config-step-google-spreadsheet-input


  5. Para gerar um Email de Serviço no Google acesse https://console.developers.google.com/projectselector/iam-admin/iam e será solicitado para criar um Projeto de API ou selecionar um preexistente em sua conta Google.

    google-apis-for-pentaho


  6. Se já tiver criado alguma API simplesmente seleciona conforme a seguir caso contrário realize os passos de criação seguindo o wizard do Google APIs.

    selecionando-google-apis

  7. Depois de selecionado acesse o Menu de opções “Contas de Serviço”  e gere uma conta de serviço para a API , no momento de geração será ;he perguntado o formato de chave , selecione a opção p12e baixe o arquivo.

    selecionando-google-apis-accounts

  8. Agora copie em seu Step no PDI e clique no botão Test Connection, se der sucesso podemos seguir e frente.

    config-step-google-spreadsheet-input


  9. Atenção!!! agora você deve acessar seu Driver e compartilhar o documento com o Pseudo usuário 999999999-xyxyxyxyxyxyxyxyxyxxy@developer.gserviceaccount.com para que a mesma fique disponível, após isso clique em Browser e ele ira listar todas as planilhas compartilhadas

    planilha-driver-pentaho


  10. Selecione o arquivo de Planilha desejada e depois seleciona a Planilha do arquivo ( WorkSheet id ( que são as abas de trabalho )

    planilhas-google-sheets-worksheet


  11. Depois de selecionar acesse a aba Fields e clique em Obter fields para ter as colunas de sua planilha no Stream de dados do PDI.

    fields-spreedshets-google-driver


  12. Agora e dar continuidade , pode usar todos os recursos do Pentaho Data Integration , Preview e Todos infinitos Steps de tratamento de Dados.

    stream-google-sheets-pentaho


  13. da mesma forma que fizemos a leitura podemos fazer a escrita de uma planilha com o step Google Spreadsheet Output  sem maiores complicações.

  14. Outros tratamentos no Google docs podem ser realizados com um pouco mais de conhecimento da API do Google ( https://developers.google.com/drive/v3/reference ) e nosos recursos de REST/SOAP/Http e JavaScript do Pentaho Data Integration e depois  adicionar estes dados extraídos (inclusive em tempo real ) á Dashboards, ou Cubos através de integrações bath em datawarehouses.

  15. Quem também quer ampliar as funcionalidades e criar algo similar o fonte deste plugin se encontra em https://github.com/GlobalTechnology/pdi-google-spreadsheet-plugin

 

Observação 1: Alguns colegas comentaram que foi necessário fazer conversão de Binary[String] para String conforme imagem:

string-to-string

Observação 2: também foram relatados limitação no número de linhas do arquivo

 

Referências :

Treinamento Avançado em Pentaho Data Integration :

https://www.ambientelivre.com.br/treinamento/pentaho/data-integration.html

GitHub GlobalTechnology

https://github.com/GlobalTechnology/pdi-google-spreadsheet-plugin

Fórum Internacional da Pentaho:

https://forums.pentaho.com/showthread.php?186094-Google-Spreadsheet-Input-How-write-the-Spreadsheet-KEY

https://forums.pentaho.com/showthread.php?220537-Kettle-connection-to-Google-Drive

Google Developers
https://developers.google.com/

Publicado em Pentaho, Pentaho Data Integration ( Kettle ) | Com a tag , , , , , | 13 Comentários

Palestra sobre o CMF Drupal Integrado ao ECM Alfresco por CMIS

Estarei ministrando uma palestra pela primeira vez no Evento Drupal Camp, apesar de conhecer a muito tempo o Drupal nunca estava muito envolvido com a Comunidade Brasileira e Internacional diretamente e este ano submeti uma palestra e a mesma foi aprovada.

Estarei falando sobre duas tecnologias que tem nos ajudado muito na implementação de projetos de grandes portais integrados com a gestão de Documentos usando Drupal como Front-End e Alfresco com BackEnd para gestão de Documentos (GED).

Veja a seguir a Chamada do Evento e se já conhece o Drupal venha Conhecer o Alfresco e se Conhece o Alfresco conheça o Drupa 🙂 , minha palestra será mais em como tirar proveito do Alfresco do que ensinar Drupal ( pois o evento é de usuários Drupal ) , então irei apresentar como integrar estas ferramentas usando plugins existentes e  poderoso CMIS.

drupalcamp2017

Palestrante: Marcio Junior Vieira
Tema: Integrando o Drupal com o ECM Alfresco usando CMIS

Acesse o site do evento e se inscreva: http://saopaulo.drupalcamp.com.br/

Caso precise de Cursos Drupal : http://www.ambientelivre.com.br/treinamento/drupal.html?utm_source=blog&utm_medium=blog&utm_campaign=Growth_Hacking%20-%20Drupal%20Camp

Caso precise de treinamento Alfresco : http://www.ambientelivre.com.br/treinamento/alfresco-ecm-open-source.html?utm_source=blog&utm_medium=blog&utm_campaign=Growth_Hacking%20-%20Drupal%20Camp%20(Alfresco)

Também personalizamos conteúdo!

 

Publicado em Alfresco, Drupal, Open Source | Com a tag , , , | Deixe um comentário

Criando clusters de alta performance com MongoDB e MongoDB Atlas

mongodb-atlasO meetup São Paulo MongoDB User Group , volta a acontecer nesta quinta-feira dia 19 no Cubo, com o tema “Criando clusters de alta performance com MongoDB e MongoDB Atlas
veja a chamada do evento e o que vai rolar :

Prepare-se para mergulhar num ambiente de inovação, computação em nuvem e transformação digital!

No dia 19 de outubro, às 19h30, a Lumini IT Solutions realiza um evento sobre o tema “Como Criar Clusters de Alta Performance com MongoDB Atlas”. O meetup gratuito acontece no Auditório do Cubo Network

No encontro serão abordadas as principais tendências para o uso de banco de dados em nuvem, trazendo o passo-a-passo de como criar vários servidores de MongoDB com a plataforma MongoDB Atlas, em formato de cluster, utilizando replicaSet. Os participantes também poderão conferir dicas sobre as melhores práticas para conseguir aliar performance e segurança.

Se você é programador, desenvolvedor ou entusiasta de tecnologias open-source, não pode perder essa oportunidade de ampliar seus conhecimentos e fazer networking com alguns dos profissionais que mais entendem do assunto!

Esperamos vocês!
Sobre o evento:

Os chamados Clusters (conjunto de servidores) são estruturas de computação que proporcionam melhor desempenho, confiabilidade e agilidade para a execução de processos de alta complexidade, que exigem o máximo dos processadores para a sua execução. O MongoDB ainda é mais conhecido pelo seu banco de dados NoSQL, mas a partir de 2016, a empresa lançou o Atlas, uma oferta gerenciada de banco de dados como serviço que roda na AWS (Amazon Web Services). Recentemente ele está disponível para desenvolvedores que querem aprender sobre o MongoDB ou começar a desenvolver protótipos de aplicativos em cima do serviço.
Facilitadores:

Victor Presidio, CTO da Lumini, é um empreendedor por natureza, focado em tornar a tecnologia simples, alinhando os resultados financeiros com uma melhor qualidade na experiência online dos clientes. Investiu os últimos 9 anos trabalhando em plataformas proprietárias e soluções globais, para medir e melhorar a qualidade na jornada dos clientes em interações online, referência cruzada em grandes análises de dados, métricas de experiência do usuário e desempenho de infra-estrutura, tudo em resposta em tempo real.

Leandro Domingues, Head of Software Development na Lumini, é embaixador e evangelista MongoDB, Top 50 Neo4j Certified com experiência em manutenção de grandes volumes de dados e aplicações críticas. Formado em Tecnologia da Informação pelo IBTA, dedicando-se principalmente a tecnologias na área de OpenSource.
Sobre o Cubo:

O Cubo é um ambiente inspirador, que visa fomentar o ecossistema de empreendedorismo digital no Brasil, sendo um hub com um ambiente inspirador para conectar pessoas brilhantes, com vontade de aprender, compartilhar ideias e lançar novas empresas com potencial de transformar negócios, tecnologia e a vida das pessoas para melhor.

A entrada é gratuita e as vagas são limitadas à capacidade do auditório

Inscreva-se em : https://www.meetup.com/pt-BR/SP-MongoDB/events/242833481/

Nesta data eu estarei em Florianópolis preparando uma equipe de Big Data com NoSQL com Cassandra ( sim eu uso Cassandra também em meus projetos 🙂 , sempre Open Sources: MongoDB, Cassandra, HBase , MariaDB, PostgreSQL, Redis, entre outros!)  e não poderei estar presente, mas quem puder comparecer vai ser um evento bem bacana, nos vemos no próximo encontro MongoDB User Group!

Publicado em MongoDB, noSQL, Open Source | Deixe um comentário