Beauty Technology, de Katia Vega e Hugo Fuks, recebe primeiro lugar no prêmio NUMA 2014

imagem do projeto Beauty Technology

O projeto Beauty Technology, da nossa pós-doutoranda Katia Vega e do Prof. Hugo Fuks, recebe primeiro lugar no prêmio NUMA 2014 (Neo Ubimedia MindTrek Awards). Vejam a notícia em:

“Building Software Engineering Body of Knowledge with Knowledge Engineering”

Prof. Kalinowski
Local: FPLF 13º andar
Data/Horário: 12 de novembro de 2014, 16:00 – 18:00

Apresentação 1: “Building Empirical Software Engineering Bodies of
Knowledge with Systematic Knowledge Engineering”

[Context] Empirical software engineering (EMSE) researchers conduct
systematic literature reviews (SLRs) to build bodies of knowledge
(BoKs). Unfortunately, valuable knowledge collected in the SLR process
is publicly available only to a limited extent, which considerably slows
down building BoKs incrementally. [Objective] This presentation
introduces the Systematic Knowledge Engineering (SKE) process to support
building up BoKs from empirical studies efficiently. [Method] SKE is
based on the SLR process and on Knowledge Engineering (KE) practices to
provide a Knowledge Base (KB) with semantic technologies that enable
reusing intermediate data extraction results and querying of empirical
evidence. We evaluated SKE by building a software inspection EMSE BoK KB
from knowledge acquired by controlled experiments. We elicited relevant
queries from EMSE researchers and systematically integrated information
from 30 representative research papers into the KB. [Results] The
resulting KB was effective in answering the queries, enabling knowledge
reuse for analyses beyond the results from the SLR process. [Conclusion]
SKE showed promising results in the software inspection context and
should be evaluated in other contexts for building EMSE BoKs faster.

Apresentação 2: “Towards a Semantic Knowledge Base on Threats to
Validity and Control Actions in Controlled Experiments”

[Context] Experiment planners need to be aware of relevant Threats to
Validity (TTVs), so they can devise effective control actions or accept
the risk. [Objective] The aim of this presentation is to introduce a TTV
knowledge base (KB) that supports experiment planners in identifying
relevant TTVs in their research context and actions to control these
TTVs. [Method] We identified requirements, designed and populated a TTV
KB with data extracted during a systematic review: 63 TTVs and 149
control actions from 206 peer-reviewed published software engineering
experiments. We conducted an initial proof of concept on the feasibility
of using the TTV KB and analyzed its content. [Results] The proof of
concept and content analysis provided indications that experiment
planners can benefit from an extensible TTV KB for identifying relevant
TTVs and control actions in their specific context. [Conclusions] The
TTV KB should be further evaluated and evolved in a variety of software
engineering contexts.


Marcos Kalinowski possui doutorado e mestrado em Engenharia de Sistemas
e Computação pela COPPE/UFRJ, na linha de pesquisa Engenharia de
Software. É graduado em Ciência da Computação pela UFRJ. Atualmente é
professor adjunto, em processo de redistribuição para a UFF. Atua com
pesquisas na área de Engenharia de Software, principalmente relacionadas
a Engenharia de Software Experimental e Qualidade de Software [Google
h-Index atual: 10]. Possui ampla experiência em transferência de
tecnologia para a indústria, tendo fornecido serviços especializados,
consultorias e treinamentos para empresas públicas e privadas de
diferentes portes, tanto dentro do país quanto fora. Atua junto ao
programa nacional MPS.BR, onde faz parte da equipe técnica do modelo
(ETM) desde 2008, desempenhando diferentes papéis ao longo dos anos,
incluindo os de coordenador de publicações, coordenador de comunicação e
coordenador do WAMPS (Workshop Anual do MPS.BR). É também avaliador
líder (tendo avaliado dezenas de empresas de diferentes regiões do
país), instrutor e implementador certificado do programa MPS.BR.

Defesa de Tese de Doutorado. Some Results in a Proof-theory Based on Graphs.

Autor: Marcela Quispe Cruz
Orientador: Edward Hermann Haeusler
Data e Hora: 13/11/2014 às 13:00
Local: 511RDC

Palestra sexta-feira 7/nov às 13h na 511 RDC: “Towards a more human-centred informatics?” Prof. Liam Bannon, Univ. Limerick, Irlanda

Palestrante: Prof. Liam Bannon — University of Limerick and Aarhus University
Título: Towards a more human-centred informatics?
Data e hora: sexta-feira 7/nov às 13h
Local: 511 RDC

In this talk I will argue that the field of Computing should not solely be about the study of computability (Mathematics) or the building of applications (Engineering). Most of the software we design today is used by people, and so an understanding of people’s activities and practices is also in my view a necessary aspect of education in the computing field. Strangely, this is still the exception rather than the rule in most Computing departments worldwide. My argument is not simply that students should receive a few lectures on the creation of user interfaces, or learn some heuristics about Human Computer Interaction (HCI), or speculate about the future on an optional course on “computers and society” (although such brief introductions are better than nothing!), but rather that they explore what it means to create artefacts that fit into, and enhance, people’s everyday lives and activities. In this talk, I’ll take up this challenge, and show how historically, these issues have surfaced in debates about the field of Computer Science over the years, without ever becoming mainstream.

Liam Bannon is Honorary Professor in Human Computer Interaction at Aarhus University, Denmark, and Emeritus Professor in the Department of Computer Science and Information Systems at the University of Limerick, Ireland. Currently, he is a Visiting Research Professor at UFRJ. In recent years, he has also held Visiting Professor positions in several Universities in France, Spain and Italy. His research interests range over the gamut of human-technology relations, including cognitive ergonomics, human-computer interaction, computer-supported cooperative work, computer-supported collaborative learning, new media, interaction design, and social dimensions of new technologies. He has been involved for many years in the elaboration of more human-centred approaches to the design of complex ICT systems (Bannon, 2011). He was a founding editor of CSCW: The Journal of Collaborative Computing and is serving, or has served, on the editorial boards of several other international journals in HCI, CSCW, CSCL, and Design. He has served on numerous International Programme Committees for Conferences in these areas, and also served as a member of the International Panel of Reviewers for many scientific research projects and organizations wordwide. Liam was recognized as a Pioneer in the HCI field by IFIP in 2010. Liam holds an Honorary Doctorate from the Royal Institute of Technology (KTH), in Stockholm, Sweden. Liam is a Fellow of the Irish Ergonomics Society, was first Chair of the ACM SigCHI Irish Chapter, and is Irish representative on IFIP TC13 (Human-Computer Interaction). In 2013 he was jointly awarded (with Kjeld Schmidt) the EUSSET-IISI Lifetime Achievement Award for contributions to HCI & CSCW.

Suggested Reading
Bannon, Liam (2011) Reimagining HCI: Toward a more human-centred perspective. ACM Interactions (cover story), July-August 2011, vol. 18, Issue 4 pp. 50-57.

Prof. Furtado agraciado com o Peter Chen Award em 2014

Antonio L. Furtado, Professor Emérito do Departamento de Informática da PUC-Rio, é o ganhador do Peter Chen Award 2014 pelas suas contribuições para a área de modelagem conceitual de banco de dados, que cobrem um período de quase 4 décadas. O Prof. Furtado desempenhou ainda um papel fundamental na criação e desenvolvimento da área no País, projetando-a no cenário internacional. Publicou livros pioneiros em estruturas de dados e organização de bancos de dados, este último um marco importante para o ensino de computação no Brasil.

Willian Oizumi, mestrando do Prof. Alessandro Garcia, recebe duas premiações durante o SBES/CBSoft 2014

O aluno Willian Oizumi, mestrando do DI sob orientação do Prof. Alessandro Garcia, recebeu duas premiações na Conferência Brasileira de Software: Teoria e Prática. Os artigos premiados foram produzidos em co-autoria com outros alunos e professores do DI.

3o. Melhor Artigo do 28o. Simpósio Brasileiro de Engenharia de Software: When Code-Anomaly Agglomerations Represent Architectural Problems? An Exploratory Study. Willian Oizumi, Alessandro Garcia, Manuele Ferreira, Arndt von Staa, Thelma Elita Colanzi

Melhor Artigo do 11o Workshop de Modularidade: Towards the Synthesis of Architecturally-Relevant Code Anomalies. Willian Oizumi, Alessandro Garcia, Leonardo da Silva Sousa, Danyllo Albuquerque, Diego Rego

Defesa de Tese de Doutorado: Using runtime information and maintenance knowledge to assist failure diagnosis, detection and recovery.

Orientador: Arndt von Staa
Data e Hora: 07/10/2014 às 9:00
Local: 13º andar FPLF

Uma biologia teórica inspirado na teoria da computabilidade

Prof. Gregory Chaitin [1,2] (ministrado em português)

Abstract: We add a new (valid) strong propositional substitution rule
(SUB) : $\frac{\Gamma}{\theta(\Gamma)}$ for any $\theta \in
\mbox{Hom}(V~AR \to F0R)$ and consider dag-like cut-free sequent calculus
SEQ$_{sub}$ with (SUB) (for brevity classical, but also keep
intuitionistic one in mind). We formulate for SEQ$_{sub}$ the Hauptsatz
with Compression. We ask if SEQ$_{sub}$ admits better/faster speed-up of
proof compression than analogous calculus with weaker substitution for
$\theta \in \mbox{Hom}(V~AR \to LIT)$?




Lógicas e Ontologias: uma proposta nada modesta para o processamento semântico do Português

Profa. Valeria de Paiva

Abstract: Se nós conseguirmos produzir fórmulas lógicas a partir de textos
objetivos em Português, muitas aplicações, tais como extração de
informacões, sumarização, análise de sentimentos, tradução automática,
pesquisa semântica, perguntas e respostas etc. tornam-se factíveis. Mas
essas aplicações requerem muitos recursos léxicos.
Mesmo para a língua inglesa, que possui, por razões óbvias, o maior número
e variedade de recursos léxicos, alguns recursos ainda estão faltando, os
recursos existentes não são bem conectados e muita informação que poderia,
a princípio, ser obtida pela ligação de recursos existentes, não é fácil
de extrair. A situação e muito pior para o português, onde não temos os
grandes e longos projetos que acumularam anos-hora de trabalho de
linguistas tais como WordNet, ComLex, o Penn TreeBank, VerbNet, FrameNet,
GATE, NLTK, Delph-IN, ParGram, GF etc. Junto com colegas eu embarquei num
projeto de construir recursos léxicos semelhantes para o português, a
longo prazo. Nossa estratégia básica é construir tanto quanto possível
automaticamente, mas verificar os resultados obtidos manualmente da melhor
forma que conseguirmos. Essa palestra descreve as ferramentas
implementadas a partir de 2010 (OpenWorNet-PT e NomLex-PT), as que estamos
criando e as que as que planejamos implementar e explica porque elas são

Teoria Estatística da Informação no Processamento de Imagens (com aplicações em imagens SAR)

Palestra do Prof. Alejandro C. Frery

Abstract: Veremos conexões interessantes entre Processamento de Imagens,
Teoria da Informação e Estatística. A Teoria da Informação é um ramo da
Probabilidade e da Estatística que, como corpo de conhecimento, ficou
consolidado em meados do século XX. Ela tem fortes conexões com as
Telecomunicações, e dois dos seus conceitos centrais são a Entropia e a
Divergência. O primeiro mede a desordem de um sistema estocástico,
enquanto o segundo mede quão diferentes dois sistemas estocásticos são.
Alguns problemas clássicos em processamento e análise de imagens são a
redução de ruído (filtrado), a detecção de bordas, a classificação e a
detecção de mudanças. As técnicas de origem estatística estão entre as
mais eficientes e eficazes para tratar esses. Dois pontos centrais desta
palestra são: (1) esses (e outros) problemas importantes em imagens podem
ser formulados como testes de hipóteses, e (2) podemos resolver esses
problemas com sucesso empregando entropias e divergências, mesmo quando o
modelo não é gaussiano (como é o caso das imagens SAR – Synthetic Aperture