👋 Hello! I'm Paulo Henrique, but you can call me Paulo Leocádia.
🚀 I'm a Data Engineer at DataSavvy, passionate about technology, politics, and diversity.
💼 Currently, I'm focused on the field of Data Science and also work as a Paid Media Analyst on the internet (paid traffic).
🚴♂️ In my free time, I enjoy biking in the park and watching science fiction and dystopian movies. Lately, I've been following a lot of Apple TV.
📫 You can get in touch with me through LinkedIn or Instagram.
🎯 Let's talk about technology, politics, or any other interesting topic!
- Python: This is my go-to language! I frequently use it for data analysis and manipulation, exploring a wide range of libraries and frameworks.
- R: I mainly use this for detailed statistical analysis and complex data visualizations.
- Jupyter Notebook: My daily companion for writing and testing Python code, excellent for data visualization and documenting analyses.
- Pandas: Essential for my work with large datasets, making data manipulation and analysis more manageable.
- NumPy: I always use it for mathematical operations and numerical calculations, especially with arrays and matrices.
- SciPy: A valuable tool for more scientific and technical tasks, complementing NumPy.
- Matplotlib: My choice for creating static, animated, and interactive graphs, making data visualization more comprehensible.
- Seaborn: I use it to enhance my statistical visualizations, thanks to its integration with Matplotlib.
- Scikit-learn: One of my favorite libraries for machine learning, I frequently use it for classification, regression, and other models.
- TensorFlow and PyTorch: I explore these libraries for deep learning projects, each with its unique characteristics and advantages.
- SQL: An essential skill in my arsenal, I frequently use it for working with databases.
- Tableau and Power BI: Tools I love using to create dashboards and reports, making data visualization more interactive and accessible.
- Apache Spark: I use it to process and analyze big data efficiently, especially in distributed environments.
- Git and GitHub: Fundamental to my workflow, I use them for version control and collaboration in projects.
- Docker: Essential for creating isolated environments, facilitating consistent testing and deployments.
👋 Olá! Sou Paulo Henrique, mas pode me chamar de Paulo Leocádia.
🚀 Sou Engenheiro de Dados na DataSavvy, apaixonado por tecnologia, política e diversidade.
💼 Atualmente, estou focado na área de Ciência de Dados e também atuo como Analista de Mídia Paga na internet (tráfego pago).
🚴♂️ Nas horas vagas, gosto de pedalar no parque e assistir filmes de ficção científica e distopias. Atualmente, estou acompanhando bastante a Apple TV.
📫 Você pode entrar em contato comigo pelo LinkedIn ou Instagram.
🎯 Vamos conversar sobre tecnologia, política ou qualquer outro tópico interessante!
- Python: Essa é a minha go-to language! Uso muito para análise e manipulação de dados, além de explorar diversas bibliotecas e frameworks.
- R: Utilizo principalmente para análises estatísticas detalhadas e visualizações de dados complexas.
- Jupyter Notebook: Meu companheiro diário para escrever e testar código Python, além de ser excelente para visualizar dados e documentar análises.
- Pandas: Essencial para o meu trabalho com grandes conjuntos de dados, facilitando a manipulação e análise de dados complexos.
- NumPy: Sempre uso para operações matemáticas e cálculos numéricos, especialmente com arrays e matrizes.
- SciPy: Uma ferramenta valiosa para tarefas mais científicas e técnicas, complementando o NumPy.
- Matplotlib: Minha escolha para criar gráficos estáticos, animados e interativos, tornando a visualização de dados mais compreensível.
- Seaborn: Uso para aprimorar minhas visualizações estatísticas, graças à sua integração com Matplotlib.
- Scikit-learn: Uma das minhas bibliotecas favoritas para machine learning, uso-a frequentemente para classificação, regressão e outros modelos.
- TensorFlow e PyTorch: Exploro essas bibliotecas para projetos de deep learning, cada uma com suas características únicas e vantagens.
- SQL: Uma habilidade essencial no meu arsenal, uso frequentemente para trabalhar com bancos de dados.
- Tableau e Power BI: Ferramentas que adoro usar para criar dashboards e relatórios, tornando a visualização de dados mais interativa e acessível.
- Apache Spark: Utilizo para processar e analisar big data de forma eficiente, especialmente em ambientes distribuídos.
- Git e GitHub: Fundamentais para o meu fluxo de trabalho, uso para controle de versão e colaboração em projetos.
- Docker: Essencial para criar ambientes isolados, facilitando testes e implantações consistentes.