Professora Tatiana Escovedo passa a integrar Quadro Complementar do DI

Formada pelo próprio Departamento de Informática, com mestrado em Engenharia de Software e doutorado em Inteligência Artificial, a professora dará aulas para a graduação

Professora Tatiana Escovedo

O semestre de 2021.2 traz novidades. Tatiana Escovedo, coordenadora e professora dos cursos de especialização lato sensu em Ciência de Dados e Análise e Projeto de Sistemas, oferecidos pelo Departamento de Informática (DI) via CCE, passará a integrar o quadro docente complementar. Tatiana irá atuar como professora do DI, lecionando agora também para a graduação. Em 2021.2 ela irá ministrar a disciplina INF1013 – Modelagem de Software, que estará disponível para a inscrição dos alunos.

Além da experiência acadêmica, a professora também atua como coordenadora da Academia de Comercialização e Logística na Petrobras, com passagem pelas áreas de TI e Transformação Digital. Tatiana espera que essa união entre prática no mercado e vivência em sala de aula contribua para a formação dos alunos. “Por ter sido aluna do DI, ter experiência de docência nos cursos lato sensu e ter essa experiência corporativa na Petrobras, espero poder contribuir para a formação dos alunos, que estão em um momento tão diferente da carreira”, disse a professora.

Mesmo nos cursos lato sensu, Tatiana incentivava seus alunos a produzirem artigos científicos. No início deste ano, três alunos da Especialização em Ciência de Dados orientados pela professora tiveram artigos aceitos no Simpósio Brasileiro de Sistemas de Informação (SBSI). Um dos trabalhos, intitulado “Machine Learning Applied to the INSS Benefit Request”, recebeu o prêmio de melhor artigo na trilha principal do simpósio.

O Globo destaca o uso de ‘big data’ no esporte

DI desenvolve diversos projetos na área de Ciência de Dados em parceria com a indústria

 

Vem de longe o protagonismo do Departamento de Informática (DI) da PUC-Rio no desenvolvimento de tecnologias ligadas à ciência de dados e nas parcerias com a indústria. Os programas do DI destacam-se na América Latina, segundo o estudo inglês Times Higher University Impact Rankings, no que diz respeito ao ‘desenvolvimento da indústria, inovação e infraestrutura’. 

 

Este tipo de emprego dos recursos tecnológicos foi destaque nesta segunda-feira (21) na reportagem “Esporte e inovação: Ciência de Dados guia decisões da performance ao marketing, mas precisa chegar à alta gestão”, do jornal O Globo. O texto mostra como estratégias de sucesso podem ser traçadas a partir do uso intensivo da big data, técnica que atribui inteligência aos dados. 

 

O professor do DI Hélio Lopes é um dos coordenadores do grupo de Ciência de Dados ExACTA, iniciativa que engloba os laboratórios daslab, IDEIAS-SERG, Galgos e LES e desenvolve projetos com a indústria em diferentes áreas, como finanças, seguros, entretenimento e óleo e gás. Lopes lembra que o DI tem atuado fortemente neste último setor, trabalhando desde geofísica e geologia, para exploração de recursos, até informações referentes à logística, ao planejar a distribuição. Mas a Ciência de Dados pode contribuir com qualquer área, inclusive no esporte, como mostra a reportagem de O Globo.

 

O professor destaca que as indústrias têm suas demandas específicas, e cada parte do processo requer tecnologias diversas. “Com a crescente demanda da indústria para transformação digital, o principal passo para o sucesso é colocar os dados no centro de tudo. A Ciência de Dados veio para fazer essa transformação. Isso quer dizer olharmos para o tripé pessoas-processos-tecnologia que existe em cada indústria. Os dados são a forma como esses elementos do tripé se comunicam”, explica Lopes.

 

Leia a matéria completa do jornal O Globo:

 

Desde 2002, quando o beisebol mostrou ao mundo como utilizar estatística e ciência de dados para ganhar o jogo, o esporte aprendeu que a vitória pode advir da revelação de um padrão de comportamento até então desconhecido do adversário. Isso é aplicado em modalidades diversas. Por exemplo, um jogador de vôlei, de 1,98m, que salta 3,50m e impulsiona uma bola para atingir a velocidade de 150km/h, é um adversário que impõe respeito. Entretanto, uma equipe técnica pode diagnosticar que esse atleta recorrentemente utiliza o lado esquerdo da rede para cortar no ponto decisivo e assim traçar estratégias mais eficientes de defesa.

 

No alto rendimento, isso só é possível com o uso intensivo da ciência de dados, ou “big data”, técnica que atribui inteligência aos dados. No entanto, o uso dessas informações vai muito além do jogo, sendo responsável também por decisões que permeiam a alta gestão e as estratégias de marketing.

 

A ciência de dados é uma área do conhecimento que combina vários campos: estatística, método científico e análise com objetivo de extrair inteligência dos dados — ou “valor”, como chamam os especialistas. Ela chegou ao esporte para responder as demandas das equipes técnicas por informações que pudessem melhorar de forma contínua a performance do elenco e personalizar o conhecimento sobre os adversários. Com o tempo, criou-se um outro tipo de rivalidade, uma disputa acirrada e milionária entre as equipes por dados que o oponente não possua. Desta forma, cientistas e analistas de dados tornaram-se profissionais imprescindíveis. O primeiro coleta as informações de fontes diversas para fazer predições, encontrar padrões e inferir sobre a resolução de problemas. O analista é mais aplicado e específico, trabalha com ferramentas voltadas à inteligência dos negócios. Seu objetivo é interpretar dados e produzir indicadores de desempenho.

 

Expansão e limites

O uso dos dados no esporte de elite começou na performance e depois passou para o marketing. Agora, pouco a pouco, essas áreas começam a pressionar a alta gestão pela implantação de uma estratégia de dados para tomada de decisão. Tem sido assim no Brasil e foi desta forma em grande parte do mundo.

 

Na área técnica, a ciência de dados chegou através de empresas que desenvolvem soluções específicas para várias modalidades. Entre as mais utilizadas estão a Wyscout, Instat e SportCode. A disseminação dessas plataformas universalizou o acesso às informações e, consequentemente, inteligência passou a ser a capacidade de produzir uma informação diferenciada, customizada e secreta. Por esse motivo, as organizações com mais recursos, além de utilizarem as plataformas, têm seus próprios bancos de dados voltados a orientar seus profissionais.

 

Já a área de marketing, impactada pela indústria do entretenimento, precisou adotar ciência de dados para multiplicar sua base de fãs através do uso intensivo de mídias sociais e canais de streaming. Prioritariamente, foram adotadas rotinas com base em business analytics, um conceito que descreve a exploração dos dados de uma organização, com ênfase na análise estatística.

 

Com a base de fãs crescendo, multiplicou-se a geração de novas oportunidades comerciais e a dependência tecnológica das organizações esportivas para conquista dessa nova fonte de recursos, com objetivo de transformar cada fã em cliente (um mundo onde algoritmos decidem onde colocar um banner, por exemplo).

 

No marketing do esporte brasileiro, o uso da ciência de dados tem se tornado mais comum. As equipes mais ricas têm seus próprios profissionais. Já aquelas com orçamento mais restrito terceirizam o tratamento de dados visando responder perguntas para engajar seu fã. Essas ideias valem para tênis, vôlei, surfe, basquete… No futebol, chama atenção uma força nordestina emergindo com Bahia, Fortaleza, Sport, Santa Cruz e CSA, que já utilizam inteligência de dados para engajar seus torcedores e simpatizantes, modernizando estratégias de marketing e aumentando a base de sócio-torcedor e vendas através de ações comerciais.

 

No Brasil, a aplicabilidade da ciência de dados na gestão é pouco explorada. Em grandes clubes fora do país, é realidade como ferramenta para tomada de decisão; já chegou ao topo da organização e, hoje, discute-se como, quanto e quando começarão a pagar aos fãs pelos dados utilizados. No Brasil, o assunto terá protagonismo por dois motivos. Primeiro, não há caminho de volta. Segundo, com a promulgação da Lei Geral de Proteção de Dados em 2018 e sua vigência iniciada em março do ano passado, as organizações esportivas poderão escolher entre o amor e a dor para acelerar suas curvas de aprendizado: ou através da geração de conhecimento ou pelo doloroso pagamento de multas.

 

Mundo pós-pandemia

O desafio da nova gestão esportiva é pós-moderno. Essa é a nova etapa de desenvolvimento da nossa sociedade, não somente do mundo do esporte. É um ponto de virada quando passamos a utilizar tecnologia para gerar inteligência.

 

No esporte do mundo pós-pandemia — quando o caixa está abalado e o aumento da receita requer a entrada maciça do capital privado — sairá na frente quem conseguir mais rapidamente se adaptar aos novos modelos de negócios que serão baseados no uso intensivo de tecnologia para geração de novas receitas. Será necessário investir na educação dos gestores, na integração das áreas e na contratação de especialistas para que essa “inteligência pós-moderna” se faça disponível.

 

A organização esportiva pós-moderna tem Tecnologia da Informação estratégica e um corpo de cientistas de dados apoiando diretamente a tomada de decisão de seus líderes — seja o responsável maior da organização, como o presidente de um clube, seja os diretores dos departamentos. A TI meio, aquela que cuida da infraestrutura, torna-se o braço operacional. Na pós-modernidade, onde a tomada de decisão dos gestores esportivos não se fará sem o apoio de soluções tecnológicas, a TI pensa.

 

É uma mudança cultural, o maior desafio que as pessoas que estão à frente das organizações esportivas precisam enfrentar. Ventos inspiradores chegam da Bundesliga e da liga profissional norte-americana de basquete, a NBA, onde a TI já é estratégica, decide-se com base nos dados produzidos por equipes de cientistas e tanto a alta gestão quanto o marketing e a equipe técnica funcionam embasados por informação de qualidade.

Live do DI aborda pesquisa survey em engenharia de software

Professor Marcos Kalinowski vai falar de lições a partir de experiências internacionais

 

Frequentemente usadas em engenharia de software, as pesquisas survey são extremamente relevantes na área tecnológica. No entanto, a falta de debates metodológicos gera lacunas que podem comprometer a validade dos levantamentos como um todo. 

 

A próxima live do Departamento de Informática (DI), nesta sexta-feira (18), às 15h, pelo YouTube e Facebook, vai expor os fundamentos da pesquisa survey e trazer uma sumarização de suas melhores práticas. O seminário vai ser apresentado pelo coordenador de pós-graduação Marcos Kalinowski, que é referência em metodologia científica, experimentação e pesquisa aplicada na área de engenharia de software.

 

O professor vai compartilhar lições importantes e desafiadoras a partir de experiências com surveys internacionais de larga escala. Na live, serão discutidos aspectos como amostragem, coleta de dados e análise estatística e qualitativa.

 

Surveys são instrumentos importantes para capturar o estado da prática e fenômenos relacionados à engenharia de software na indústria, tanto para explorar novas hipóteses quanto para confirmá-las. Entretanto, falhas no planejamento e na análise dos dados podem levar a um resultado nulo, irrelevante”, afirma Kalinowski.

 

Venha assistir e participar do seminário, mande dúvidas e comentários! 

Clique aqui para acompanhar. E inscreva-se no nosso canal do YouTube (youtube.com/dipucrio) para não ficar de fora das novidades!

Live descomplica desafios de integração de dados em Data Science

Professor Marco Antonio Casanova falou sobre as dificuldades no acesso a diferentes bancos de dados e mostrou como trabalhá-los na Web

Você já imaginou sua vida sem sites de busca? Com uma simples pesquisa, conseguimos informações precisas em milésimos de segundos. Mas para que estas ferramentas funcionem de forma eficiente, é imprescindível que haja uma boa integração de dados. Este foi o tema da live realizada na sexta-feira (21) pelo Departamento de Informática (DI) da PUC-Rio, com participação do professor Marco Antonio Casanova

“Essa história de consulta por palavra-chave é bem interessante, mas tem muito mais que a gente pode fazer para melhorar a vida do usuário na hora de localizar os dados que ele precisa”, afirmou Casanova, que desenvolve pesquisas com ênfase em tecnologias que facilitem a interpretação de dados na web. “O campo da integração de dados pode ir muito além se adotarmos técnicas de machine learning mais atuais. Assim conseguimos resolver os mesmos problemas que existem há muito tempo de uma forma mais razoável”, defendeu o professor. 

Na live, Casanova explicou os desafios de integrar dados de fontes diferentes, especialmente ao lidar com grandes volumes e múltiplas origens. A questão surgiu na década de 1970, época em que os databases começaram a se popularizar, mas continua relevante até hoje, quando tratamos de aplicações de ciências de dados. 

Um estudo da empresa Crowdflower mostrou que, em um projeto de data science, gasta-se quase 80% do tempo coletando, limpando e organizando dados. Durante a apresentação, o professor identificou os quatro principais problemas a serem resolvidos no tratamento dos dados – alinhamento de esquemas, ligação de entidades, extração e fusão -, e sugeriu técnicas para resolver estes e outros conflitos.

Para quem quer se especializar em bancos de dados, Casanova dá a dica: “A interface de linguagem natural para bancos de dados existe há muito tempo, mas hoje temos tecnologias para fazer isso muito melhor do que há 5 anos. Essa é uma área em que vale a pena investir”.

A transmissão foi pelo YouTube e pelo Facebook do DI. Para revê-la, basta clicar nos links! 

Esta foi mais uma apresentação da série de seminários de pós-graduação do DI, que acontece toda sexta-feira, às 15h. Ative o lembrete do YouTube e venha participar com comentários e perguntas!

Fundamental para data science, integração de dados é tema de live

Professor Marco Antonio Casanova fala sobre as dificuldades no acesso a diferentes bancos de dados

 

Como acessar dados originados por diferentes fontes? Este é um problema antigo, que tem um grande impacto em projetos de data science. Com as novas transformações digitais, surge no mercado uma demanda por profissionais especializados em tópicos fundamentais da área de Ciência de Dados. Em live realizada nesta sexta-feira (21), às 15h, pelo Departamento de Informática (DI) da PUC-Rio, o professor Marco Antonio Casanova, vai falar sobre o tema. A transmissão será pelo YouTube e pelo Facebook do DI.

 

“O problema da integração está no cerne da Ciência de Dados”, alerta Casanova, que desenvolve pesquisa em várias áreas de banco de dados, com ênfase em tecnologias que facilitem a divulgação e interpretação de dados na Web. Na live, Casanova vai dar orientações sobre como trabalhar dados na Web de um jeito que eles possam ser lidos e interpretados pelas aplicações com mais eficiência.

 

A apresentação integra a série de seminários de pós-graduação do DI, que acontece toda sexta-feira, às 15h. Ative o lembrete do YouTube e venha participar com comentários e perguntas!

Alunos da Especialização em Ciência de Dados têm artigos aceitos no SBSI

Da esquerda para a direita: Ney Barchilon, José Douglas Nascimento e Márcio Afonso. Foto: Arquivo pessoal

Curso lato sensu do DI se destaca por promover produção científica em suas turmas

Na pós-graduação stricto sensu – ou seja, no mestrado e no doutorado em Informática do Departamento de Informática (DI) da PUC-Rio, faz parte da formação dos alunos atuar em pesquisas de ponta e relatar os resultados em artigos científicos. Apesar desse tipo de produção não ser comum em cursos lato sensu, o DI incentiva a produção científica também de seus alunos de especialização, o que trouxe notícias muito positivas: três artigos da turma de 2019 da Especialização em Ciência de Dados foram aceitos para publicação no Simpósio Brasileiro de Sistemas de Informação (SBSI). Detalhe: nenhum dos alunos havia submetido um artigo científico antes. 

Os trabalhos “Machine Learning Aplicado ao Resultado de Pedido de Concessão de Benefícios do INSS”, de Ney Barchilon; “Construção de Tábuas de Mortalidade com a utilização de Redes Neurais LSTM”, de José Douglas Nascimento; e “Clusters of Brazilian municipalities and the relationship with their fiscal management”, de Márcio Afonso, serão apresentados na conferência em junho, que será online por conta da pandemia de Covid-19.

A coordenadora da especialização e orientadora dos trabalhos, Tatiana Escovedo, destacou a taxa de aceitação rigorosa do SBSI. “As conferências mais prestigiadas têm uma seletiva taxa de aceitação. Esta edição do SBSI, por exemplo, teve em torno de 30%”, disse. No total, foram 179 artigos submetidos e 59 aceitos. Dentre os aceitos, três são dos nossos alunos da pós lato sensu em Ciência de Dados. 

Orgulhosa, Tatiana espera que o fato inspire não só as atuais turmas de 2020 e 2021, mas também os futuros alunos do curso. “Participar de produções científicas pode estimular e abrir oportunidade para que os alunos ingressem no mestrado e no doutorado”, contou a professora, também destacando um potencial da pesquisa lato sensu. “Como muitos alunos atuam no mercado, é possível haver uma colaboração forte entre indústria e academia.”

Conheça os trabalhos

O artigo “Machine Learning Aplicado ao Resultado de Pedido de Concessão de Benefícios do INSS”, de Ney Barchilon, propõe um modelo de machine learning para agilizar os processos de concessão de benefícios no INSS. Segundo Barchilon, essa aplicação ajudaria a prever se determinado pedido seria concedido ou não, possibilitando a redução do tempo de espera. “Eu percebi que podia montar um algoritmo para fazer essa previsão a partir dos dados abertos do INSS, disponíveis no site do Governo Federal”, disse. 

Já o trabalho “Construção de Tábuas de Mortalidade com a utilização de Redes Neurais LSTM”, de José Douglas Nascimento, consiste em um modelo específico de machine learning (no caso, as aplicações de redes neurais LSTM) para estimar a taxa de mortalidade da população brasileira nos próximos 10 anos, de forma que os estados possam mensurar riscos na área de previdência e de seguros. Essa técnica poderia facilitar o atual formato calculado e divulgado pelo IBGE. 

Por fim, o artigo “Clusters of Brazilian municipalities and the relationship with their fiscal management”, de Márcio Afonso, analisa os municípios brasileiros e suas características socioeconômicas para propor um modelo estatístico capaz de agrupá-los em diferentes combinações, percebendo se existem influências sobre como as prefeituras estão gerindo os recursos públicos. 

Essa foi a primeira vez em que os três autores submeteram artigos científicos para publicação, e o sentimento de orgulho foi grande para todos. Tanto Barchilon, formado em Estatística, quanto Márcio Afonso, economista de formação, acharam que não teriam chances. “Ter sido aprovado na minha primeira tentativa foi bastante surpreendente e positivo”, disse Afonso. 

José Douglas Nascimento, que é atuário, também se surpreendeu com a experiência. “Escrever um artigo foi um grande alcance, valeu por tudo que eu fiz”, disse emocionado. Durante o curso, Nascimento contraiu Covid-19, foi internado na UTI e, mesmo assim, acompanhou as aulas por se identificar com o que estava aprendendo. “A pós foi muito importante para eu receber a denominação de cientista de dados. Não era só uma realização profissional, eu também precisava desse ganho na minha vida”, contou. 

Mais sobre a pós em Ciência de Dados

A pós-graduação lato sensu em Ciência de Dados do DI inclui possui uma ementa abrangente e diferenciada, fornecendo a formação ideal para um cientista de dados. São abordados tópicos como Machine Learning, Inteligência Artificial, Banco de Dados, Big Data, Cloud Computing, LGPD e Gestão de Dados. 

A próxima turma iniciará em Março de 2022 e, assim como as turmas atuais, adotará o formato online. Para Barchilon, Afonso e Nascimento, o curso fez toda a diferença em suas carreiras. Eles elogiaram o corpo docente, a ementa proposta e as aplicações teóricas e práticas ao longo das aulas. 

De acordo com Tatiana, os próximos passos são estreitar laços entre a pós-graduação lato sensu e a stricto sensu da PUC-Rio. “Planejamos envolver professores do mestrado e doutorado na produção destes artigos, promovendo um intercâmbio de experiências com os pesquisadores de referência nessas áreas”, contou.

Por Dentro do DI: Daslab desenvolve e inova na área de Ciência de Dados

O professor Hélio Lopes (esq.) recebendo, pelo daslab, o prêmio do BPI Challenge 2017, em Barcelona. Foto: Arquivo pessoal

Laboratório realiza pesquisas na área de data science e desenvolve produtos para a indústria

No terceiro post da série “Por Dentro do DI”, falaremos sobre o daslab, que é o Núcleo de Inovação Tecnológica (NIT) em Ciência de Dados do Departamento de Informática da PUC-Rio. Ele é co-coordenado pelos professores Hélio Lopes e Simone D. J. Barbosa.

O objetivo do daslab é fazer pesquisa, desenvolvimento e inovação em Ciência de Dados, incluindo as suas áreas afins, como: aprendizado de máquina, mineração de dados, mineração de processos, visualização, UX / UI, inteligência artificial, bancos de dados, IoT e ética na computação.

“O nosso foco é desenvolver métodos e sistemas computacionais que resolvam os problemas da vida real”, disse Lopes, que criou o laboratório em 2017 a fim de proporcionar um espaço ao desenvolvimento de pesquisas na área de ciência de dados.

Ainda de acordo com o co-coordenador, o daslab realiza não só pesquisas práticas e teóricas na área de data science, mas também desenvolve produtos para a indústria. “Em dado produto para um cliente, nós trabalhamos a interpretação de relatórios operacionais, tentando extrair as informações que vinham desses textos, a fim de possibilitar buscas semânticas em linguagem natural”, exemplificou. 

Interdisciplinaridade

Um dos pontos altos do daslab é a sua forte colaboração com outros NITs do Departamento de Informática, principalmente com IDEIAS-SERG, Galgos e ExACTa. De acordo com Lopes, a área de ciência de dados é bastante interdisciplinar e conversa com as propostas dos demais NITs. 

Integrantes do daslab. Foto: Arquivo pessoal

O IDEIAS-SERG realiza pesquisa multidisciplinar em IHC e UX, focando atualmente em Engenharia Semiótica e Semiótica Computacional; Visualização de Informação e Visual Analytics; Computação Centrada em Humanos; e Ética e Mediação Algorítmica de Processos Sociais. Esse laboratório traz para o daslab seu conhecimento e experiência em análise, design e avaliação de interação e de interfaces de usuário (IHC+UX).

Já o Galgos visa desenvolver e aplicar métodos algorítmicos para o manuseio e a análise de grandes volumes de dados, e otimizar recursos de médio e grande porte. Nesse caso, o daslab colabora na parte de interpretar relatórios analíticos. 

Por fim, o ExACTa usufrui o trabalho do daslab e dos demais NITs para entregar produtos para transformação digital da indústria de uma forma ágil.

A união dos NITs resulta em uma equipe com cerca de 40 membros, entre alunos de graduação, mestrado, doutorado e participantes dos projetos, que transitam entre os diferentes trabalhos dos laboratórios. 

“A gente puxa para o lado da cooperação, estabelecendo uma troca entre os alunos e participantes, enriquecendo o trabalho e fazendo com que todos ganhem muito com isso”, explicou Lopes. “O daslab oferece uma enorme experiência para os alunos, em termos de conhecimento e prática com aplicações na indústria.”

Conquistas 

O laboratório tem executado importantes projetos com a indústria, tem promovido a difusão de conceitos de data science em diversos setores e tem sido reconhecido por seu trabalho.

No final de 2017, o daslab conquistou o BPI Challenge 2017, premiação voltada à área de mineração de processos. “Resolvemos um desafio mundial e obtivemos a conquista”, contou Lopes, que participou do evento em Barcelona, na Espanha. 

Já em 2020, o laboratório recebeu o prêmio de Melhor Artigo na International Conference on Enterprise Information Systems (ICEIS), com o artigo “Globo Face Stream: A System for Video Meta-data Generation in an Entertainment Industry Setting”, escrito por Lopes e pelos alunos de doutorado Rafael Pena, Felipe A. Ferreira, Frederico Caroli e Luiz Schirmer. 

Gostou da iniciativa e deseja fazer parte? Fique de olho, porque o daslab está disposto a receber alunos de graduação, mestrado e doutorado interessados em trabalhar com a área de ciência de dados – uma das mais requisitadas do mercado. Basta entrar em contato com os professores Hélio Lopes (lopes@inf.puc-rio.br) ou Simone Barbosa (simone@inf.puc-rio.br). 

Curso de Ciência de Dados, área com ampla procura, abre turmas online

O início das aulas está previsto para o dia 9 de março, com duração de 18 meses

A especialização em Ciência de Dados do Departamento de Informática (DI) da PUC-Rio está com as inscrições abertas. O início das aulas está previsto para o dia 9 de março e o curso terá duração de 18 meses. Neste ano, a especialização será 100% on-line, possibilitando o ingresso de graduados de qualquer parte do Brasil e do mundo.

Para este formato, as aulas acontecerão de forma síncrona, ou seja, em horário marcado e em tempo real. Além disso, todo o conteúdo será também gravado e disponibilizado para os alunos que não tiverem a oportunidade de acompanhar alguma das aulas síncronas e interativas.

Ementa inclui conceitos teóricos e práticos da área

O curso trata de tópicos variados para fornecer a formação ideal para um cientista de dados, como: Machine Learning, Inteligência Artificial, Banco de Dados (Bancos de dados relacionais, NoSQL, Data Warehouses, Data Lake, etc), Big Data, Cloud Computing, LGPD e Gestão de Dados, Visualização da Informação, Dashboards, entre outros.

Com nove disciplinas e um trabalho final, o objetivo da especialização é formar profissionais que sejam capazes de analisar dados, aplicar as suas respectivas técnicas em organizações e acompanhar as tendências do mercado.

De acordo com a professora de especialização da PUC-Rio e coordenadora do curso, Tatiana Escovedo, o conhecimento em Ciência de Dados deve ir além do uso de ferramentas e tecnologias. “Buscamos assegurar que os alunos entendam o processo de ciência de dados, ou seja, que eles sejam capazes de entender todo o caminho, desde a necessidade do cliente até a entrega de soluções que agreguem valor ao negócio”, disse. 

O curso é voltado para pessoas graduadas em qualquer área e que tenham familiaridade com a área de exatas. “Ciência de dados é um tema quente em computação e áreas correlatas, que tem diversas aplicações nas mais distintas áreas, como Saúde, Óleo e Gás, Engenharia de Produção, Vendas, Recursos Humanos, Direito, Letras, Economia, entre muitas outras”, complementa Tatiana. 

O professor do DI e também coordenador do curso, Hélio Cortes Vieira Lopes, ressalta a importância da familiaridade e do domínio em Ciência de Dados para o mercado de trabalho. “A área veio para dar valor aos dados nos mais diferentes ramos de atuação da indústria. No século XXI, profissionais das mais diferentes áreas terão como requisito ter conhecimento nessa área”, afirmou.

A primeira versão da especialização de Ciência de Dados foi criada na década de 2000 pelo então professor associado do DI e também coordenador Rubens Nascimento Melo. 

“Na ocasião, o curso já enfatizava os principais tópicos de BI (Business Intelligence) e era focado em data warehousing, data mining e gestão do conhecimento. Agora, adaptamos o curso de forma que ele tenha novos seminários e outros tópicos, refletindo a modernidade da área”, disse Melo.

Como se inscrever? 

As inscrições para a especialização Ciência de Dados estão abertas e podem ser realizadas via CCE. O curso começa em 9 de março. Os encontros síncronos serão realizados às segundas, terças e quartas-feiras, de 19h às 22h, pela plataforma Zoom.

A página do CCE da PUC-Rio reúne todas as informações sobre a ementa, valores e inscrições. Para acessá-la, basta clicar aqui.

Endler mostra como Internet das Coisas pode ajudar no combate à Covid-19

Em live, Diretor do DI apresentou kit de sensores e mobile hub para monitoramento de pacientes 

A Internet das Coisas tem múltiplas aplicações e uma delas pode ser a serviço da saúde. Pesquisador de IoMT (Internet of Mobile Things) Markus Endler, diretor do Departamento de Informática (DI) da PUC-Rio, mostrou na live do DI, na sexta-feira (16), projetos de software e hardware que podem ajudar no combate à Covid-19 monitorando os sinais vitais dos pacientes. “Cada vez mais temos dispositivos wearable (usáveis) muito bons, muito precisos, onde se pode medir, por exemplo, a insulina, o pulso, o oxímetro… o que é muito importante na pandemia”, disse. 

No seminário “Middleware para Internet das Coisas com Mobilidade”, transmitido pelo YouTube e pelo Facebook, Endler detalhou o que é IoT e suas aplicações. Apresentou exemplos de sistemas de IoT em larga escala e abordou a questão da mobilidade. O professor também descreveu em linhas gerais o ContextNet, o middleware desenvolvido integralmente no LAC (Laboratory of Advanced Colaboration) da PUC-Rio há oito anos. “Ele é escalável, tem um protocolo de comunicação confiável e leve, permite estar conectado com até 1000 IoT simultaneamente, e está disponível para uso em pesquisa ou de ensino também”, disse o professor, sobre as vantagens do ContextNet.

Dentre as suas áreas de aplicação, cidades inteligentes, IoT na indústria, healthcare (saúde) e monitoramento ambiental, a tecnologia pode se tornar uma ferramenta de combate ao novo coronavírus, se usada para monitorar os pacientes. Endler mostrou como funciona um componente de software para um sistema de monitoramento de pacientes com sintomas leves da Covid-19, desenvolvido no semestre passado. “Observamos que os profissionais da saúde, com tantos pacientes, têm dificuldade de perceber rapidamente a piora do estado de saúde de um paciente. E em algumas doenças infecciosas, como na Covid-19, essa piora pode ser muito rápida. Então a ideia é ter o hardware como um wearable, — que você coloca ou no dedo ou na orelha — e coleta a frequência cardíaca, a saturação de oxigênio e a temperatura. Em seguida, envia isso para o sistema de monitoramento e de alarme que vai então mandar os alarmes para os enfermeiros e médicos”, explicou o professor.  

 

LEIA TAMBÉM:

Endler: ‘No futuro, as coisas vão se interconectar automaticamente’

Capes apoia projeto de professor do DI sobre combate à Covid-19

Jogo criado por alunos do DI e do DAD brilham na cena internacional de games

 

Endler apresentou a interface mobile do sistema, que mostra inclusive um gráfico com a evolução dos sintomas ao longo do tempo. “Ainda não está implantado, mas a parte de software está praticamente toda pronta”, afirmou. Além do  , também é necessário um kit de sensores. “É ergonômico, leve, pequeno. E o envio de dados é ajustável. Tem a vantagem da economia da bateria. E esse kit seria de baixo custo, entre R$ 100 e R$ 400, muito abaixo do valor dos equipamentos que se usa em uma UTI”, apontou. 

A live com o professor Endler está disponível no nosso canal do YouTube. Se inscreva e não perca os próximos seminários.

Endler: ‘No futuro, as coisas vão se interconectar automaticamente’

Diretor do DI apresentará seminário online sobre a Internet das Coisas nesta sexta (16)

Já pensou na tranquilidade de ter uma janela que se fecha automaticamente quando começa a chover? E se todos os aparelhos da sua casa fossem interconectados e funcionassem sozinhos, a ponto de você não precisar interagir com cada um? Pois essa tecnologia tem tudo a ver com o seminário “Middleware para Internet das Coisas com Mobilidade”, do diretor do Departamento de Informática (DI) da PUC-Rio, Markus Endler, nesta sexta-feira (16). “A internet das coisas (IoT) é a ideia de que, no futuro, as coisas vão se interconectar automaticamente, adaptando-se às necessidades do usuário sem que ele tenha que configurar nada”, adianta Endler.

Embora a área de aplicação de IoT (Internet of Things) que mais avançou em popularização e produtos seja a de smart home (casa inteligente), atualmente a internet das coisas está presente em muitas áreas, como na agricultura, nas cidades inteligentes e na indústria 4.0 — já é bastante eletrônica, mas que ainda não tem comunicação entre as máquinas. É justamente aí que entra a IoT. “Na minha pesquisa, em particular, me interesso pela internet das coisas móveis. Acredito que cada vez mais vamos carregar muitos aparelhos conosco. Podemos imaginar que no futuro teremos sensores em ônibus, por exemplo”, diz.

Endler destaca como exemplo uma rede de drones que se coordena no vôo para otimizar o percorrimento de uma área e coletar dados. “Ao voar juntos, já vão coletando dados através de sensores e repassando a informação de um para o outro, de tal maneira que rapidamente você tem acesso a esses dados pela internet”, explica. “A internet das coisas é a infraestrutura necessária para coletar dados que posteriormente serão analisados. Não se pode pensar em ciência de dados sem pensar na infraestrutura para coletá-los de forma confiável. Se não há garantia da confiabilidade e consistência dos dados, eles não valem de nada. E, para isso, um software de IoT é fundamental.”

Endler ressalta que apesar de muito se falar das aplicações, o foco da pesquisa é desenvolver uma camada de middleware mais genérica e independente. Assim, a depender de onde será usada, pode ser configurada com os serviços e módulos necessários para a aplicação em questão. “Podemos compor o software de acordo com a necessidade. Isso proporciona economia de energia, porque é um software mais enxuto, não é tão grande”, diz. Segundo o pesquisador, o middleware tem funções para descobertas de objetos móveis e para estabelecer conexão com eles, além de uma opção para difundir os dados que coleta de forma organizada.

Para saber mais detalhes, não perca o seminário na sexta-feira (16), às 15h. Se inscreva no canal do DI no Youtube e ative o lembrete. Assim você recebe um aviso antes do início da live e, além de assistir, poderá tirar suas dúvidas pelo chat ao vivo!

Continue reading