PROGRAMA DE PÓS-GRADUAÇÃO EM INFORMÁTICA (PPGI)

UNIVERSIDADE FEDERAL DA PARAÍBA

Telefone/Ramal
Não informado

Dissertações/Teses


Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFPB

2024
Descrição
  • JONAS PEREIRA DE ANDRADE FILHO
  • Avaliação de Conformidade com a LGPD: Um Modelo de Maturidade de Processos
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 30/08/2024
  • Hora: 16:00
  • Mostrar Resumo
  • Este trabalho propõe um modelo de processo com a Lei Geral de Proteção de Dados (LGPD), buscando estabelecer uma estrutura clara e efetiva para avaliar o nível de maturidade da organização em relação à Lei. A falta de conformidade das organizações com esta lei representa um obstáculo para as ambições do país de ingressar em blocos econômicos e organismos internacionais importantes, como também pode trazer prejuízos para o sistema de proteção de dados nacional. O aumento exponencial de atividades digitais, como o comércio eletrônico, o trabalho remoto e o ensino à distância nas últimas décadas trouxeram benefícios econômicos e sociais através da rápida adoção de Tecnologia da Informação e Comunicação, porém isto tem levado a uma rápida coleta de dados. Este aumento exponencial no volume de dados gerados e compartilhados elevou substancialmente o risco de violações de privacidade, tornando indispensável a implementação de regulamentações robustas a fim de alcançar a implementação completa de um governo totalmente digital, é fundamental que o compartilhamento de dados pessoais em todas as esferas seja tanto adequado para a sociedade como em conformidade com os órgãos de controle. Espera-se que com implementação desse modelo possa oferecer suporte às organizações para alinhar-se aos princípios delineados na LGPD, ao mesmo tempo, em que lhes permita avaliar o grau de maturidade alcançado em relação aos critérios delineados pela legislação.
  • RICHELIEU RAMOS DE ANDRADE COSTA
  • Análise de qualidade de tradução automática para língua de sinais a partir de fluxos de vídeos legendados
  • Orientador : GUIDO LEMOS DE SOUZA FILHO
  • Data: 30/08/2024
  • Hora: 16:00
  • Mostrar Resumo
  • A provisão de uma janela com avatares 3D que renderizam a tradução automática de conteúdo audiovisual para línguas de sinais permite uma oferta mais significativa de programação acessível, tanto na televisão ao vivo quanto em serviços de vídeo sob demanda, além de reduzir os custos operacionais envolvidos, especialmente com intérpretes. No entanto, desafios adicionais envolvem a sincronização do áudio original com a apresentação equivalente em sinais, que é mais lenta do que a fala humana. Estudos indicam que a duração da apresentação de um sinal na Língua de Sinais Americana (ASL) é aproximadamente o dobro da duração de uma palavra monossilábica. Este trabalho visa investigar métodos e estratégias para melhorar a sincronização dos sinais com o conteúdo de vídeo associado. Uma das abordagens consideradas é a aplicação de sumarização automática de sentenças (ou compressão), que visa produzir uma paráfrase mais curta para uma dada sentença de entrada em um processo de simplificação para exigir menos sinais para transmitir o conteúdo original. Outra técnica aplicável é chamada de ajuste elástico, que consiste em modificar a duração de exibição de um objeto de mídia. Algoritmos de ajuste elástico podem ajustar a velocidade do áudio em até 10%, para cima ou para baixo, mantendo a qualidade da percepção do áudio dentro de limites aceitáveis. A hipótese principal é que a combinação de tais métodos reduz o tempo necessário para interpretar o conteúdo em Língua Brasileira de Sinais, diminuindo assim a dessincronização das informações e priorizando as informações mais cruciais relacionadas a esse conteúdo. Dois experimentos com sumarização automática de uma matéria de notícias foram realizados. Em ambos, foi possível exibir a sinalização em Língua Brasileira de Sinais usando um avatar 3D dentro da duração do segmento de notícias. O primeiro experimento teve uma taxa de sumarização de palavras de 31,5%, e o segundo teve uma taxa de 56,5%. A análise da qualidade da tradução automática foi realizada com os algoritmos BLEU e METEOR.
  • PABLO SURIA PEREIRA MOUSINHO
  • Um Novo Método Iterativo Exato Para o Problema das Sequências Justas Ponderadas
  • Orientador : BRUNO JEFFERSON DE SOUSA PESSOA
  • Data: 30/08/2024
  • Hora: 15:00
  • Mostrar Resumo
  • Este trabalho aborda o Problema das Sequências Justas Ponderadas (PSJP), um problema de otimização introduzido recentemente na literatura que faz parte da classe de problemas de sequências justas. Ele abrange grande número de aplicações, em diferentes áreas, as quais variam desde a minimização de custos em uma linha de montagem de automóveis ao sequenciamento de serviços de manutenção das máquinas de um fábrica. O PSJP é um problema de escalonamento periódico, com horizonte de tempo finito, que, dado um conjunto de atividades com diferentes prioridades, tem como objetivo produzir uma sequência de execuções tal que o máximo produto, definido como o produto entre a maior distância temporal entre duas execuções consecutivas de uma mesma tarefa e sua prioridade, seja minimizado. O presente trabalho propõe aprimoramentos que fortalecem a formulação matemática clássica do PSJP, além de um algoritmo iterativo baseado em recentes avanços da literatura. Os experimentos computacionais realizados mostram que o método iterativo proposto encontra mais soluções ótimas e em menor tempo computacional quando comparado à abordagem exata do estado da arte.
  • FREDERICO DE SOUZA GUERRA
  • Uma abordagem heurística híbrida para o problema de sequenciamento de tarefas com datas de liberação e restrições de inventário
  • Orientador : ANAND SUBRAMANIAN
  • Data: 30/08/2024
  • Hora: 13:00
  • Mostrar Resumo
  • Problemas de sequenciamento de tarefas são vastamente abordados na literatura e com inúmeras aplicações na indústria. Dentre as variantes dessa classe de problemas, este trabalho tem como objetivo propor uma abordagem heurística baseada em busca populacional híbrida, a fim de minimizar o tempo de término da última tarefa da sequência (makespan) considerando as restrições de inventário e data de liberação. O método proposto inclui procedimentos de intensificação e diversificação, em que o primeiro realiza uma busca local com avaliação eficiente de movimentos, enquanto o segundo consiste em uma estratégia inspirada em ruin-and-recreate, além da implementação de um mecanismo de controle de diversidade da população. Experimentos computacionais em um conjunto de 960 instâncias demonstram a competitividade do algoritmo proposto frente ao algoritmo guess-and-check (GC) encontrado na literatura. O método desenvolvido obteve soluções melhores em 21 instâncias, mesma solução em 927 casos e foi superado pelo GC em apenas 12 instâncias.
  • THIAGO CUNHA MONTENEGRO
  • Uma Arquitetura de Referência para Explicabilidade como Serviço na Saúde - H-XAIaaS (Health - eXplainable Artificial Intelligence as a Service)
  • Orientador : NATASHA CORREIA QUEIROZ LINO
  • Data: 30/08/2024
  • Hora: 09:00
  • Mostrar Resumo
  • Nas últimas décadas, a Inteligência Artificial (AI), por meio das mais recentes técnicas de Aprendizagem de Máquina, tem impactado diversas áreas, especialmente a área da saúde, graças à sua crescente precisão e eficiência. Modelos preditivos de Aprendizagem de Máquina são promissores, mas é fundamental que sejam compreensíveis e explicáveis para os profissionais de saúde, aumentando sua aceitação e confiança. Com o avanço das ferramentas em nuvem, a oferta da IA como serviço (AIaaS) tem crescido, permitindo que organizações e ecossistemas se beneficiem do aprendizado de máquina para compor soluções. Contudo, a facilidade na criação e disponibilidade desses modelos de Aprendizagem de Máquina em nuvem traz à tona questões de transparência e interpretabilidade, principalmente em domínios sensíveis a esses aspectos como o domínio da saúde, que exige integridade e conformidade com princípios éticos e regulatórios. Esta pesquisa propõe uma arquitetura de referência baseada no paradigma AIaaS para construir modelos de aprendizado de máquina em nuvem, integrando explicabilidade para melhorar a tomada de decisões clínicas. A arquitetura H-XAIaaS visa propor uma arquitetura de referência para viabilizar explicabilidade em IA como serviço. Para validar a arquitetura proposta foram implementados dois estudos de caso. O primeiro estudo de caso envolveu dados tabulares e foram usadas as técnicas de explicabilidade LIME, Anchor Rules e Contrafactual. O segundo estudo de caso envolveu dados de imagens e envolveu as técnicas LIME e Grad-CAM. A arquitetura proposta revela-se promissora no contexto de criação de modelos de aprendizado de máquina, e suas explicações no que diz respeito a transparência e interpretabilidade, o que favorece os processos de tomada de decisões clínicas.
  • VICTOR FELLIPE DOS SANTOS GOMES
  • Aplicação de nudges no consumo de energia elétrica: Um estudo experimental
  • Orientador : ALISSON VASCONCELOS DE BRITO
  • Data: 15/08/2024
  • Hora: 09:00
  • Mostrar Resumo
  • A Economia Comportamental (EC) é utilizada como base teórica para compreender como as pessoas tomam decisões econômicas e como essas decisões podem ser influenciadas por fatores emocionais e contextuais. A EC difere da Economia Tradicional ao levar em consideração as limitações cognitivas e comportamentais dos indivíduos. A aplicação de green nudges no contexto do consumo sustentável de energia elétrica visa mudar o comportamento das pessoas em relação ao uso desnecessário de energia e promover maior eficiência energética. Esta pesquisa objetiva implementar em um estudo experimental o uso de green nudges frente ao consumo insustentável de energia elétrica no ambiente acadêmico e avaliar sua eficácia, para promover um comportamento sustentável em relação ao consumo de energia elétrica. A metodologia adotada para a pesquisa será exploratória, descritiva e explicativa. Além de realizar uma análise estatística dos dados. Os resultados alcançados através de pesquisa na literatura, demonstram que a utilização de green nudges para a mudança do comportamento frente a problemáticas ambientais, tais como a redução do consumo de energia elétrica, são extremamente eficazes. Contudo, a utilização de green nudges revela ser uma estratégia eficaz para promover mudanças comportamentais em direção a um consumo de energia elétrica mais sustentável. Essas intervenções baseadas em EC e nudges têm baixo custo, são exequíveis e escaláveis, tornando-se aliadas importantes na busca por um modelo energético mais verde, sustentável e consciente.
  • GABRIEL DA SILVA BELARMINO
  • Revisão Sistemática de Soluções Tecnológicas e Organizacionais para Conformidade com a LGPD
  • Data: 01/08/2024
  • Hora: 14:00
  • Mostrar Resumo
  • A Lei Geral de Proteção de Dados Pessoais (Lei no 13.709, de 14 de agosto de 2018) dispõe sobre o tratamento de dados pessoais e descreve novos desafios e demandas sociotécnicas para modernizar o sistema jurídico, assim como, promover avanços na Governança de Dados e na Segurança da Informação, a fim de ampliar os direitos fundamentais dos cidadãos e conduzir novos princípios e diretrizes para o desenvolvimento de uma cultura organizacional capaz de garantir a proteção de dados. Para atender a LGPD, são necessárias diversas mudanças, não apenas em regulamentos e políticas empresariais com foco jurídico, mas também em questões práticas e técnicas relacionadas aos processos de trabalho, infraestrutura tecnológica e gestão de dados, que são o foco deste trabalho. Este estudo realiza uma revisão sistemática da literatura sobre a proteção de dados pessoais, com o objetivo de identificar soluções de adequação. Apresenta artefatos tecnológicos relacionados à implementação de sistemas e a gestão organizacional, preparando os processos internos para cumprir os requisitos de segurança, reduzir os riscos à privacidade e atender às demandas da LGPD. A revisão permitiu explorar 41 estudos qualificados, descrevendo soluções relevantes para a pesquisa. Com base nesses resultados, foram propostas 14 recomendações para auxiliar no processo de adequação de uma organização à LGPD. Além disso, sugerimos recomendações sobre documentação de proteção de dados e elencamos requisitos prioritários para a conformidade legislativa.
  • NATÁLIA DOS SANTOS COSTA NEVES
  • Utilização da Técnica CNN em variados Eventos e como proposta para predição de NLoS
  • Data: 30/07/2024
  • Hora: 14:30
  • Mostrar Resumo
  • A CNN é considerada uma variação existente nas redes de percepções de múltiplas camadas. Foi desenvolvida a partir do processo biológico de processamentos de dados visuais. O objetivo central desse estudo é detectar a relevância das CNNs em variados eventos e de prevenir riscos da presença de NLoS no ambiente. A metodologia utilizada se baseou em uma produção bibliográfica com analise de materiais científicos publicados na revista cientifica ciências da computação e na plataforma Google Acadêmico entre os anos de 2014 a 2024. Foram analisados minuciosamente oito artigos científicos. Os resultados indicaram que as CNNs podem ser utilizadas nos seguimentos médicos para analisar as emoções dos indivíduos para detectar variados tipos de transtornos, em analises meteorológicas na prevenção de tempestades, no controle de velocidade veicular e no controle de NLoS na comunicação entre veículos dentro de cidades inteligentes. Concluiu-se que para o desenvolvimento algoritmo de CNNs em variados seguimentos são satisfatórios. já relacionado a utilização de técnicas CNNs para prevenção de eventos de NLoS, os resultados foram insuficientes.
  • VICTOR JOSÉ DE SOUSA KOEHLER
  • Novos Métodos de Programação Linear Inteira Mista para o Problema das Árvores de Classificação Ótimas
  • Orientador : GILBERTO FARIAS DE SOUSA FILHO
  • Data: 29/05/2024
  • Hora: 10:00
  • Mostrar Resumo
  • Árvores de classificação são um recurso muito útil na área de aprendizado de máquina pela facilidade de interpretação humana de suas predições. Motivado pela melhoria dos algoritmos e da capacidade de hardware para resolução de problemas de programação inteira, trabalhos recentes abordam a criação de árvores de classificação ótima através de modelos lineares, sendo o modelo mais geral intitulado Optimal Classification Trees (OCT). Propomos neste trabalho uma reformulação do OCT, inequações válidas baseada no grafo de precedência dos pontos de aprendizado e uma estratégia de branch-and-cut sobre restrições que dependem do número n de pontos que é muito grande em várias instâncias da literatura. Os resultados demonstram que a reformulação do modelo reduz em média 66% do tempo computacional do OCT, e que as inequações de precedência diminuem em 70% o número de nós resolvidos pela estratégias de branch-and-bound
  • ANA CLARA CHAVES SOUSA
  • Previsão de demanda de cosméticos no varejo utilizando aprendizagem de máquina
  • Data: 28/02/2024
  • Hora: 10:00
  • Mostrar Resumo
  • A tomada de decisão baseada em dados foi facilitada devido à alta disponibilidade de dados e à maior capacidade de processamento dos computadores. Para auxiliar na tomada de decisão, é possível extrair informações dos dados através da Ciência de Dados. Um exemplo em que há grande aplicabilidade dessa ciência nas empresas é a previsão de demanda dentro da área de Gestão da Cadeia de Abastecimento. Fazer a previsão do volume de vendas não é uma tarefa trivial e, além disso, imprecisões nessa previsão podem causar ruptura de estoque ou afetar sua gestão. Neste estudo, será feita a previsão de vendas de dois canais de venda diferentes utilizando algoritmos de Aprendizado de Máquina para uma marca de uma grande empresa. Essa empresa está alocada no mercado de Higiene Pessoal, Perfumaria e Cosméticos, em que o Brasil é o quarto maior mercado consumidor do mundo. Foram utilizados dados dos anos de 2018 a 2023 de vendas que ocorreram em todos os estados brasileiros. As previsões foram feitas em três diferentes horizontes de tempo, sendo eles: curto prazo (próximo período), médio prazo (aproximadamente 3 meses à frente) e longo prazo (cerca de 7 meses à frente). Sendo assim, a consistência dos modelos de Aprendizado de Máquina também foi avaliada. Os algoritmos analisados neste estudo foram: CatBoost, LightGBM, XGBoost e Prophet. Primeiramente, os métodos de Gradient Boosting mencionados foram comparados a fim de identificar qual dos três métodos indicou maior estabilidade ao prever múltiplos horizontes. O XGBoost apresentou os menores erros para o canal Loja na previsão em todos os três horizontes (10% para o curto prazo, 2,12% para o médio prazo e 6,4% para o longo prazo). Para o canal Venda Direta, o XGBoost não apresentou o menor WAPE em todos os horizontes, mas teve mais estabilidade em comparação ao CatBoost e ao LightGBM. Em sequência, o XGBoost foi comparado com um método de séries temporais, o Prophet. Comparando os dois modelos em cenários distintos, concluiu-se que o Prophet apresentou resultados mais satisfatórios e maior estabilidade na previsão de múltiplos horizontes temporais.
  • RENAN PAIVA OLIVEIRA COSTA
  • Uma Investigação sobre a Aplicabilidade de Redes Transformers no Contexto de Tradução Automática para Língua Brasileira de Sinais
  • Orientador : TIAGO MARITAN UGULINO DE ARAUJO
  • Data: 28/02/2024
  • Hora: 09:00
  • Mostrar Resumo
  • Segmentos significativos da população mundial, incluindo a comunidade surda, não conseguem se beneficiar plenamente dos recursos da tradução automática neural (ou NMT, do inglˆes Neural Machine Translation) devido a vários desafios que os desenvolvedores enfrentam ao construir tais sistemas para linguagens de poucos recursos, como as línguas de sinais. Algumas pesquisas recentes de processamento de linguagem natural (PLN) com poucos recursos focam na criação de novos mecanismos linguísticos e benchmarks, enquanto outra corrente busca personalizar soluções de NMT existentes para novos idiomas e domínios. Adicionalmente, modelos recentes de PLN podem ser igualmente aplicáveis tanto para linguagens de poucos recursos quanto para domínios sem tais limitações e algumas correntes começam a investigar se novas técnicas de NMT também podem ser generalizadas para diferentes recursos - em termos de disponibilidade de dados e disponibilidade de recursos computacionais. Neste contexto, o foco deste estudo foi prospectar modelos de Redes Transformers e analisar a sua potencial aplicabilidade em contextos de poucos recursos, como é o caso das línguas de sinais. Para uma melhor avaliação, alguns dos modelos de Redes Transformers mais promissores foram adaptados e utilizados no componente tradutor da Suíte VLibras e os resultados obtidos comparados com os fornecidos atualmente pela arquitetura LightConv. Nesse contexto, o primeiro conjunto de experimentos foi focado em avaliar se tal adequação poderia também ser aplicada em contextos de low-resources NLP, que é o caso das línguas de sinais. Os resultados obtidos indicam que a adoção de uma das duas arquiteturas melhor classificadas (Transformer Básico ou ByT5) ajudaria a aumentar a precisão e qualidade do componente de tradução da Suíte VLibras, trazendo um aumento percentual máximo de até 12,73% na métrica BLEU. A partir de prospecção e avaliação dos modelos em evidência, considerando que o processo de seleção de modelos candidatos teve um espaço de busca mais amplo, foi realizado um estudo mais aprofundado para tentar otimizar o modelo Vanilla Transformer. Na segunda fase de experimentação, foi realizada uma busca e uma varredura de hiperparâmetros relevantes considerando os seguintes hiperparâmetros: bpe tokens, warmup updates, relu dropout, attention dropout, dropout, augmentation e learning rate, que apontou que os três primeiros respondiam por cerca de 80% da capacidade de predição do modelo. Os resultados médios obtidos para a métrica BLEU usando o modelo Transformer Básico com hiperparâmetros refinados foram superiores em cerca de 17,45% do que média do modelo de referência e 8,95% melhor do que a média obtida pelo modelo melhor classificado na fase de prospecção, ByT5, o que indica um bom potencial da estratégia de refinamento da configuração de hiperparêmetros.
  • RENAN MOREIRA DA SILVA
  • Injeção de Falhas e Análise de Confiabilidade em Redes Sensíveis ao Tempo
  • Data: 26/02/2024
  • Hora: 09:00
  • Mostrar Resumo
  • A rede sensível ao tempo (TSN) fornece comunicação determinística de alto desempenho usando agendamento de tempo. Em teoria, o rigor de um cronograma TSN é a chave para alcançar uma comunicação determinista; no entanto, dispositivos reais são propensos a erros. Os aplicativos baseados em TSN exigem tolerância a falhas e garantia de latência de ponta a ponta. Neste trabalho identificamos as limitações do método de escalonamento TSN, aprimorando o modelo de simulação NeSTiNg para permitir a injeção de falhas. A injeção de falhas é feita pela introdução de novos componentes, e módulos para emular falhas permanentes, transitórias e intermitentes com o auxílio de distribuições de probabilidade. Avaliamos a efetividade da injeção-falha comparando os resultados de latência e jitter com os esperados pelo gerador de programação TSNsched. Além disso, também apresentamos uma técnica para aumentar a confiabilidade da rede em cenários defeituosos.
  • MATHEUS LIRA SARTOR
  • Detecção de Falhas em Unidades Geradoras de Usinas Hidrelétricas Utilizando DCT e Simulações Bootstrap
  • Orientador : LEANDRO CARLOS DE SOUZA
  • Data: 20/02/2024
  • Hora: 15:00
  • Mostrar Resumo
  • A detecção de falhas em unidades geradoras é tema de suma importância para a manutenção em usinas hidrelétricas, pois antecipar falhas pode significar evitar perdas no fornecimento de energia para o sistema nacional tal como possível economia com a prevenção de ações corretivas ou substituição de componentes. O principal desafio para a detecção de falhas é que nem toda anomalia nos dados necessariamente indica uma falha, então é necessário que o modelo a ser utilizado em questão seja capaz de detectar características intrínsecas aos dados e detecte uma anomalia apenas quando existe uma determinada assinatura de falha. Pensando em resolver este problema, foi desenvolvido o modelo DCT-Bootstrap e o mesmo foi testado no cenário real de uma usina e em um conjunto de dados de referência, tendo conseguido superar os modelos de referência no estado da arte em ambas as situações. Estre trabalho então introduz um novo modelo poderoso que poderá ser utilizado em tarefas relacionadas à detecção de falhas em diversos escopos.
  • LUCAS DA SILVA CRUZ
  • Implementação de Ambiente de Confiança Zero para Redes Industriais: Desafios e Soluções em Aplicações de Sistemas de Controle Industrial
  • Data: 31/01/2024
  • Hora: 09:00
  • Mostrar Resumo
  • O uso de aplicações para coletar e gerir a aquisição de dados, em particular, sistemas de controle, supervisão e aquisição de dados (SCADA), possibilitou a gestão dos equipamentos para a nova indústria. O acesso remoto para gerir estações é uma realidade que converge sua aplicabilidade para o uso industrial e com o movimento de aproximar tecnologias de informação a tecnologia operacional, o qual possibilitou o aumento da malha de rede e em conjunto a possibilidade de novas vulnerabilidades a serem corrigidas. Adotar modelos de segurança para mitigar eventos ocasionados por novas vulnerabilidades vão sendo adotados. Este trabalho apresenta uma avaliação do impacto no desempenho da rede ao se adotar determinado paradigma de segurança orientado a Confiança Zero em plantas industriais. A proposta visa mapear possíveis ocorrências de eventos que impactam na comunicação entre cliente, servidor, aplicações SCADA, ao se adotar novas políticas. Como cenário de testes iniciais, escolheu-se uma rede industrial operando com o protocolo MODBUS TCP/IP e sob regras do paradigma de Confiança Zero. Métricas como latência, jitter e vazão na rede foram escolhidas como formas de se avaliar o desempenho dos cenários de rede investigados. Os resultados preliminares sugerem que, embora a Confiança Zero possibilite um controle no qual os limites de domínios se tornam o dado, as transações na rede influência negativamente no tempo de resposta e no consumo de recursos computacionais, levando os gestores a necessidade de criar ambientes que simulam seus espaços industriais para avaliar o uso de modelos de segurança em escala industrial.
  • ARIANE MARINA DE ALBUQUERQUE TEIXEIRA
  • Monitoramento Dinâmico do Volume Hídrico em Reservatórios Utilizando Imagens de Satélite e Redes Neurais Convolucionais
  • Data: 30/01/2024
  • Hora: 16:30
  • Mostrar Resumo
  • Técnicas de monitoramento baseadas em imagens têm sido aplicadas para realizar o acompanhamento do volume de água em regiões propensas a secas recorrentes e severas, a exemplo do nordeste do Brasil. O principal objetivo deste trabalho é apresentar um framework que aproveita o aprendizado profundo e imagens multiespectrais para monitorar os volumes de água de reservatórios no estado da Paraíba, Brasil. Uma Rede Neural Convolucional Totalmente Convolucional (FCN) foi utilizada para extrair a área da superfície dos corpos d'água. A rede foi construída utilizando o modelo U-Net e alcançou uma precisão de 95%, medida pela métrica de Interseção sobre União (IoU) no conjunto de teste. Para a criação da série temporal dos reservatórios, foram empregadas imagens multiespectrais de satélite que abrangem o período de meados de 2018 a 2023. Os resultados destacaram variações significativas no desempenho do modelo de segmentação de água em diferentes reservatórios. Enquanto alguns, como Argemiro de Figueiredo e Engenheiro Ávidos, revelaram resultados promissores, outros, como Marés e Gramame/Mamuaba, apresentaram desafios consideráveis. Essas análises permitiram a avaliação da eficácia do modelo e da metodologia utilizada para o monitoramento dos reservatórios, identificando peculiaridades e fatores que podem afetar a precisão das estimativas. Dentre esses fatores, incluem-se a presença de nuvens, a resolução espacial das imagens de satélite e a localização geográfica dos reservatórios.
2023
Descrição
  • ANDERSON MARINHO PONTES DE BARROS
  • UMA PROPOSTA DE VIABILIZAÇÃO DA RELAÇÃO ENTRE O FINANCIADOR E O PRESTADOR DE SERVIÇOS AMBIENTAIS ATRAVES DE ORACULOS BLOCKCHAIN
  • Data: 29/12/2023
  • Hora: 16:00
  • Mostrar Resumo
  • A necessidade de uma maior transparência e confiabilidade nas etapas de investimento e administração dos recursos dos projetos motiva a adoção tecnologias que permitam o acompanhamento da utilização e aplicação desses recursos de forma transparente e auditável, e assegurem que esses recursos sejam liberados e utilizados pelas organizações e prestadores de serviços ambientais de forma responsável e correta. Este trabalho propõe uma solução utilizando o conceito de oráculos blockchain, que viabiliza o funcionamento dos contratos inteligentes da Standing Forest Coin (SFC), uma moeda que permite a coleta descentralizada de recursos direcionado a iniciativas e atividades que visam proteger o ecossistema da amazônica brasileira. Através da tecnologia blockchain os contratos inteligentes baseados em oráculos poderão garantir a credibilidade e segurança para os recursos financeiros dos investidores e doadores aplicados em projetos dentro da Standing Forest Coin (SFC - Standforest.org). A proposta será avaliada, através de um conjunto de experimentos, com intuito de analisar o impacto da solução projetada na relação entre o financiador e o prestador de serviços ambientais.
  • ANTONIO TEIXEIRA NETO
  • ANÁLISE CUSTO EFETIVIDADE PARA SUPORTE À DECISÃO EM SAÚDE: APLICAÇÃO À NEFROLOGIA UTILIZANDO ÁRVORE DE DECISÃO
  • Orientador : NATASHA CORREIA QUEIROZ LINO
  • Data: 14/12/2023
  • Hora: 10:00
  • Mostrar Resumo
  • O objetivo desse estudo é auxiliar a tomada de decisão em saúde a partir da análise de custo efetividade com a utilização de árvore de decisão. Para tanto, foi realizado levantamento bibliográfico através de uma revisão sistemática, utilizando a metodologia PRISMA, bem como desenvolvida uma metodologia para construção do modelo. O resultado dessa pesquisa bibliográfica apresenta o avanço da utilização de aprendizagem de máquina, associada a teorias econômicas, para suporte de decisão em saúde, apresentando as principais publicações de artigos nessa área, assim como serviu de base para o desenvolvimento de um método de construção do modelo apresentado nesta dissertação de mestrado. Para validar nossa proposta, foi feito um estudo de caso considerando a Doença Renal Crônica (DRC). A DRC é responsável por cerca de 1,2 milhão de mortes por ano em todo o mundo. A doença está associada a elevados custos em saúde e pela redução significativa da qualidade de vida dos pacientes. O diagnóstico precoce é fundamental para prevenir e retardar seus efeitos. Especialistas estimam que a taxa de erro em diagnósticos estão entre 10 e 15% e que a utilização de tecnologias para suporte à decisão em saúde se torna fundamental para otimizar os recursos do sistema público de saúde e melhorar a qualidade de vida dos pacientes.
  • JOSÉ LEOBERTO SOARES FILHO
  • Videoconferência Acessível para Deficientes Auditivos com Avatar de Libras Automático
  • Data: 31/08/2023
  • Hora: 14:00
  • Mostrar Resumo
  • Tendo em vista no aumento do uso de conferências síncronas nas atividades diárias das pessoas, as mais diversas adversidade surgiram ou foram agravadas. A falta de acessibilidade para pessoas com algum tipo de deficiência auditiva é um dos desafios mais notáveis, já que essa parcela da sociedade segundo o censo conduzido pelo Instituto Brasileiro de Geografia e Estatística (IBGE) no ano de 2010, representa aproximadamente 9,7 milhões de pessoas com algum tipo de deficiência auditiva. Existem diversas leis que garantem o acesso à informação para pessoas surdas, porém, profissionais capacitados para tradução para Libras ainda são um grupo escasso. Pensando nisso, este trabalho propõe a inserção do Avatar de Libras para tradução da linguagem oral portuguesa para a linguagem gestual de libras, acrescentando também apresenta a funcionalidade de legendas automáticas no interior da ferramenta Video For Health (V4H).
  • JOÃO RAFAEL CHAVES DE ARAÚJO SILVA
  • Priorizando critérios de usabilidade de Recursos Digitais Para Usuários com Autismo através de Crowdsourcing
  • Data: 30/08/2023
  • Hora: 14:00
  • Mostrar Resumo
  • O Transtorno do Espectro Autista (TEA) é um transtorno do neurodesenvolvimento que afeta a comunicação, interação social e interesses pessoais de seus portadores. O uso de recursos digitais tem se tornado uma alternativa popular para melhorar a qualidade de vida de pessoas com autismo, no entanto, projetar e desenvolver esses recursos, bem como garantir sua qualidade, pode ser um desafio para as partes interessadas. Nesse contexto, existem guias de desenvolvimento direcionados à usabilidade disponíveis para consulta. No entanto, o número de diretrizes, os conceitos envolvidos e sua amplitude de aplicação tornam a utilização desses guias trabalhosa. Para solucionar esse problema, este trabalho propõe definir diferentes níveis de importância dos critérios de usabilidade de recursos digitais voltados para pessoas com TEA. Para isso, o AutismGuide (um guia para o desenvolvimento de ferramentas digitais voltadas para pessoas com TEA) foram alvo de um estudo que utilizou crowdsourcing a fim de definir diferentes níveis de importância para seus critérios. O objetivo é obter os critérios mais importantes para diferentes categorias e contextos de uso, possibilitando a consulta e o uso de um número reduzido de critérios. Isso contribuirá para tornar o uso e aplicação das diretrizes mais práticos nos processos de desenvolvimento e avaliação de recursos digitais voltados para pessoas com TEA, promovendo a concepção de recursos digitais melhores e mais acessíveis.
  • GABRIEL MEDEIROS DO NASCIMENTO
  • FAZ UM PIX! Equilibrando controle e generatividade em sistema nacional de pagamentos
  • Data: 23/08/2023
  • Hora: 09:00
  • Mostrar Resumo
  • Generatividade é uma característica imprescindível para plataformas digitais. Trata-se da capacidade da plataforma ter seu conteúdo guiado e programado por terceiros não guiados e espontaneamente envolvidos com o sistema. O movimento contrário, de limitação desta atividade criativa, chama-se controle. A presente pesquisa respondeu à pergunta: como o Banco Central, proprietário do Pix, controla a generatividade na famosa plataforma nacional de pagamentos brasileiros? A partir desta pergunta-norte, foram como objetivos específicos a identificação de formas que o Banco Central guia a generatividade na plataforma, bem como elencar oportunidades generativas no Pix e como estas se relacionam com possíveis estratégias de controle aplicadas pelo Banco Central no Pix. Para isto, foi adotada uma metodologia de pesquisa exploratória e qualitativa. As fontes primárias foram artigos acadêmicos, documentações técnicas, normas e regulamentos. Como fontes secundárias, tivemos reportagens e matérias de veículos de comunicação e jornalismo. A partir de análises de manuais técnicos como Manual de Segurança, Manual de Interfaces e outros relativos a domínios específicos, buscou-se identificar qual foi a estratégia de equilíbrio entre controle e generatividade empregada pelo Banco Central na gestão do Pix. Foi identificado o uso de metodologia híbrida para equilíbrio entre controle e generatividade, na vertente "domínio-estrutural". Ou seja, o Banco Central modula a qualidade da generatividade a depender do domínio da plataforma e do tipo de terceiro envolvido, se usuário ou instituição financeira parceira.
  • ARTHUR JOSÉ LOPES DA SILVA
  • Detecção e Análise Automática do Deslocamento Vertical do Osso Hioide em sua Amplitude Máxima em Exames de Ultrassonografia da Deglutição
  • Data: 31/07/2023
  • Hora: 16:30
  • Mostrar Resumo
  • Localizado abaixo da mandíbula, o osso hioide está presente na parte superior do pescoço. E o único osso que não se articula com nenhum dos outros 205 que existem no corpo humano, fazendo apenas conexões com músculos ao seu redor. Ocupa uma posição importante e participa de funções essenciais, como a fala, deglutição e respiração. Na deglutição, o osso hioide realiza um movimento, ou mais precisamente, uma elevação e um deslocamento para frente. A partir disso, para obter uma visão detalhada e possibilitar o estudo desse movimento, são realizados exames de imagem como a videolaringoscopia, videofluoroscopia e ultrassonografia, onde o último possui a vantagem de ser um exame não invasivo, de baixo custo, seguro, rápido e bastante utilizado nos estudos das estruturas envolvidas na deglutição. O estudo do movimento do osso hioide é de grande importância, pois caso o movimento esteja comprometido e não seja realizado de maneira correta, pode gerar limitações ao indivíduo e auxiliar no aparecimento de doenças que comprometem a sua rotina. Tal estudo, geralmente, é feito a partir de uma an´alise do deslocamento do osso, onde os profissionais da saúde executam a análise sem ferramentas que automatizam esse processo. Por ser um osso de tamanho minúsculo (com de cerca de 42,04 milímetros) e em movimento, a qualidade do resultado dos exames ou diagnósticos para o paciente podem ser comprometidos. Pensando nisso, o presente estudo tem como objetivo desenvolver uma ferramenta utilizando inteligência artificial, com métodos de aprendizagem profunda, que seja capaz de detectar e analisar quantitativamente de forma automática o movimento vertical do osso hioide em exames de ultrassonografia da deglutição. Através de vídeos de pacientes deglutindo saliva, líquido pastoso e água, foi realizado o treinamento e, posteriormente, a detecção utilizando YOLO na versão 7-tiny. Uma vez detectado, foi feito o cálculo do deslocamento vertical do osso hioide através de dados do exame de ultrassonografia e informações resultantes da detecção, tal cálculo teve o foco na amplitude máxima, ou seja, do repouso ao pico máximo do deslocamento. Após isso, todos resultados foram mostrados e avaliados segundo precisão e revocação, obtendo valores de 0,95 e 0,93 respectivamente, e também segundo ao cálculo de deslocamento, onde foram comparados a outros resultados da literatura. O presente estudo mostrou uma boa precisão na detecção do movimento do osso hioide e uma aproximação em relação ao cálculo do deslocamento vertical comparado a literatura.
  • DAVID PEREIRA GALVÃO JÚNIOR
  • Identificação de Fraudes em Licitações - Uma abordagem utilizando agrupamento por interseção
  • Data: 13/07/2023
  • Hora: 10:00
  • Mostrar Resumo
  • Fraudes em licitações causam prejuízos significativos à sociedade, e são objeto de intensa investigação das autoridades. Muitos dos trabalhos anteriores procuraram identificar uma licitação fraudulenta por meio da análise dos valores financeiros das propostas submetidas pelas empresas participantes. O presente trabalho propõe um modelo de agrupamento de empresas guiado pela participação em comum em licitações, dos grupos formados são extraídas métricas com fins de quantificar o quão a participação em conjunto das empresas supera o acaso, usando esses valores como entrada para algoritmos de aprendizagem de máquina. Os resultados demonstram que as métricas propostas obtiveram um ganho de até 9\% na correlação de validação, se comparada as métricas da literatura.
  • YURI DA COSTA GOUVEIA
  • Detecção de falha em motores BLDC por meio de sinais de áudio usando Rede Neural Convolucional e SAC-DM
  • Data: 07/07/2023
  • Hora: 09:00
  • Mostrar Resumo
  • Veículos aéreos não tripulados (VANTs), comumente chamados por drones, vêm sendo utilizados cada vez mais para auxílio de tarefas humanas, com propósitos variados. Com o aumento no uso desse tipo de veículo, torna-se cada vez mais comum o acontecimento de falhas, o que pode causar danos a vida humana, danos materiais e também ambientais. Com isso, é proposto uma metodologia que tem como objetivo identificar falhas de balanceamento em hélices de motores BLDC, usados em VANTs. Neste trabalho é utilizado um método não invasivo, que adquire o sinal de áudio emitido pelo motor em rotação, realiza um pré-processamento, etapa a qual aplica-se o algoritmo SAC-DM (Signal Analysis Based on Chaos Using Density of Maxima), e em seguida obtém-se o espectrograma dos sinais pré-processados para aplicar em uma rede neural convolucional. Para validar a metodologia, foi realizado um experimento para realizar a comparação dos resultados obtidos, o qual não possui a etapa de aplicação do algoritmo SAC-DM. Também para validar, compara-se o resultado obtido com os resultados de trabalhos relacionados, afim de concluir o benefício do uso do SAC-DM. Com os experimentos executados, obtém-se os resultados de 71,43% de acurácia na classificação de sinais de áudio de um motor com hélice desbalanceada, para o experimento que utiliza o SAC-DM. Já para o experimento que não usa o SAC-DM, encontra-se uma acurácia de 98,21% de acertividade na classificação desses mesmos sinais.
  • JOSÉ MAURÍCIO FERNANDES MEDEIROS
  • Abordagens heurísticas para o problema de escalonamento de lotes em máquinas paralelas com penalidades por atraso
  • Data: 03/07/2023
  • Hora: 16:00
  • Mostrar Resumo
  • Este trabalho aborda o problema de escalonamento de lotes em máquinas paralelas idênticas com penalidades por atraso, datas de liberação e famílias de tarefas. Nesse ambiente, lotes são constituídos somente por tarefas de uma mesma família e alocados a uma máquina para processamento. As tarefas agrupadas são processadas simultaneamente respeitando a data de liberação e tempo de processamento associados ao lote. O objetivo é minimizar a soma dos atrasos ponderados. Para resolver o problema, são propostos dois algoritmos meta-heurísticos empregando procedimento de busca local com múltiplas estruturas de vizinhança e de mecanismos de perturbação de soluções. Experimentos computacionais são realizados em instâncias conhecidas e os resultados são analisados e comparados com aqueles obtidos utilizando outros métodos reportados na literatura.
  • JOSÉ MAURÍCIO FERNANDES MEDEIROS
  • Abordagens heurísticas para o problema de escalonamento de lotes em máquinas paralelas com penalidades por atraso
  • Data: 03/07/2023
  • Hora: 16:00
  • Mostrar Resumo
  • Este trabalho aborda o problema de escalonamento de lotes em máquinas paralelas idênticas com penalidades por atraso, datas de liberação e famílias de tarefas. Nesse ambiente, lotes são constituídos somente por tarefas de uma mesma família e alocados a uma máquina para processamento. As tarefas agrupadas são processadas simultaneamente respeitando a data de liberação e tempo de processamento associados ao lote. O objetivo é minimizar a soma dos atrasos ponderados. Para resolver o problema, são propostos dois algoritmos meta-heurísticos empregando procedimento de busca local com múltiplas estruturas de vizinhança e de mecanismos de perturbação de soluções. Experimentos computacionais são realizados em instâncias conhecidas e os resultados são analisados e comparados com aqueles obtidos utilizando outros métodos reportados na literatura.
  • FRANCISCO DE ASSIS COSTA DE ALBUQUERQUE JUNIOR
  • Mitigando o Problema de Acoplamento entre Switches SDN Durante Ataques de Negação de Serviço
  • Orientador : IGUATEMI EDUARDO DA FONSECA
  • Data: 26/04/2023
  • Hora: 08:30
  • Mostrar Resumo
  • A arquitetura de uma Rede Definida por Software (SDN - Software Defined Networking) tem como principal característica centralizar o controle da rede em um único ativo, o que facilita a implementação de técnicas de proteção contra diversos modelos de ataques, incluindo ataques de negação de serviço (DoS - Denial of Service). Todavia, quando a própria arquitetura SDN é o alvo do atacante, a rede torna-se vulnerável. Nesta proposta de dissertação é demonstrado que mesmo duas redes que não contém conexão direta entre elas podem sofrer as consequências de um ataque pelo fato de estarem utilizando o mesmo controlador. Além disso, este trabalho propõe técnicas para mitigar ataques de negação de serviço que se concentram em explorar a segurança ao se acoplar vários switches ao mesmo controlador. Para a demonstração utilizamos um ataque dificil de ser detectado conhecido como Slow-Saturation, o qual é classificado como um ataque do tipo baixa taxa (low rate).
2022
Descrição
  • GLÁUCIO BEZERRA ROCHA
  • Abordagem para Otimização do Processo de Alocação de Viaturas Policiais utilizando Registro de Ocorrências Criminais para Suporte no Processo Decisório Gerencial no Âmbito da Segurança Publica.
  • Data: 02/12/2022
  • Hora: 14:00
  • Mostrar Resumo
  • Considerando a segurança pública no Brasil como uma área de grande importância da sociedade atual, sendo um setor crítico nos estados brasileiros pelo fato de está diretamente ligada ao maior bem jurídico do ser humano, a vida, além do patrimônio, faz necessário a realização de estudo que permita mitigar o aumento da criminalidade por meio de uso de inteligência policial. Nesse cenário, a ciência oferece diversas metodologias e ferramentas para auxiliar na solução e gestão de problemas nesse contexto, dentre elas estão inteligência de negócios, Inteligência Artificial, Séries Temporais, otimização combinatória e Análise Criminal. Em análise realizada no âmbito da segurança pública do Estado da Paraíba, um dos problemas identificados e trazido para esse trabalho foi a mal distribuição de viaturas policiais por toda área geográfica das cidades, ocasionando atrasos e ineficiências quando em atendimento a população. Atualmente as viaturas policiais são distribuídas em bases fixas localizadas em bairros, onde praticamente cada bairro possui algumas viaturas a disposição para atender aquela área, e percebe-se que a atual alocação dessas patrulhas não consideram algumas características do fenômeno criminal para serem definidas suas localizações, a exemplo de número de ocorrências existentes e distância de locais com maior incidência criminal. Dessa forma, é possível identificar bairros com maior índice criminal equipados com menos viaturas em detrimento de bairros com menor números de ocorrências, resultando em um superdimensionamento e/ou sub dimensionamento de recursos e aparato policial. Considerando todo o cenário do problema apresentado, esse trabalho propõe um processo de clusterização que utilizará os milhares de registros de ocorrências policiais, para posteriormente prever a quantidade de crimes nessas regiões identificadas, e finalmente, por meio da técnicas de problema de localização (Problema de Localização de Máxima Cobertura Capacitada) propor locais que viaturas policiais ostensivas possam se situar para atender uma maior parte população, considerando menor distância, tempo e capacidade de atendimento, com valores mínimos aceitáveis.
  • ALINE MOURA ARAÚJO
  • DETECÇÃO E DESTAQUE EM VÍDEO DE OBJETOS UTILIZANDO YOLO
  • Data: 31/10/2022
  • Hora: 15:30
  • Mostrar Resumo
  • Em dispositivos celulares e câmeras, está crescentemente presente a funcionalidade de ampliação de imagem (do inglês, zoom), no entanto, ainda é uma inovação utilizar detecção de objetos para automatizar esta tarefa. A detecção é um problema clássico relacionado à visão computacional que trata da localização de instâncias de objetos semânticos em uma classe específica. Nesse sentido, o objetivo deste trabalho foi implementar um sistema capaz de realizar a detecção de objetos de forma automática em vídeo, avaliando seu funcionamento com guitarra, violão e microfone. Após essa detecção, um novo vídeo foi gerado dando ênfase ao instrumento detectado, a fim de facilitar a observação de sua execução. Para tanto, foi desenvolvido um sistema que, utilizando um modelo YOLOv4, é capaz de identificar objetos e fazer um procedimento semelhante a um zoom in no vídeo. Foi implementado um pipeline, onde é feita primeiramente uma extração dos quadros dos vídeos, e, em seguida, a detecção de um objeto parametrizado em um intervalo de 12 quadros. Após a detecção, é feito o recorte seguindo uma metodologia de interpolação para tratar a fluidez do vídeo, e, por fim, um novo vídeo é gerado a partir desses recortes. Foram feitos testes com diferentes parâmetros de extração dos quadros, utilizando vídeos recuperados do Youtube, avaliando 4 cenários para a extração das imagens. Nesses testes, foram avaliados a performance do modelo de detecção, o tempo levado para a extração e o percentual de informação excluída no vídeo de saída em cada cenário. Para a validação desse pipeline, foi adotada uma metodologia, assumindo que detecção funcionaria de forma eficiente, para validar a heurística implementada na interpolação, a confiança do modelo para os 4 cenários de extração e o comportamento do sistema ao lidar com problemas de oclusão no vídeo. Na validação, foi utilizado um modelo pré-treinado da rede neural de código aberto YOLOv4 com 80 classes, realizando a detecção de objetos arbitrários, sendo gato e cachorro as classes escolhidas. Além disso, também foi treinado um modelo personalizado YOLOv4 e a base da Imagenet, para que seja capaz de fazer a detecção específica de instrumentos musicais. Em relação aos resultados da rede, apesar de não ser o foco deste trabalho, a precisão média alcançada pelo modelo nas classes guitarra, violão e microfone foi 61,90%, 87,94% e 62,27%, respectivamente. No sistema de zoom in, foi possível perceber que, quanto melhor o parâmetro de extração, maior é a quantidade de objetos detectados pelo modelo, como, também, a detecção tem maior precisão e qualidade. Houve uma pequena perda de qualidade em relação à resolução do vídeo original, e não houve perda significativa de conteúdo do vídeo devido ao intervalo dos quadros na detecção. Concluindo as análises dos resultados obtidos, é possível afirmar que a proposta do trabalho obteve êxito, pois, todos os objetivos apresentados foram alcançados. Para trabalhos futuros, almeja-se testar novos modelos de detecção, implementação de novos critérios de avaliação do vídeo de saída e paralelização das etapas do pipeline.
  • ALEXANDRE MAGNO DA SILVA NUNES
  • Diagnóstico em Tempo Real de Falhas em Drones através das Análises de Sinais de Vibração Baseadas no Caos Usando Densidade e Amplitude de Máximos
  • Orientador : ALISSON VASCONCELOS DE BRITO
  • Data: 31/08/2022
  • Hora: 14:00
  • Mostrar Resumo
  • O Veículo Aéreo Não Tripulado (VANT) se popularizou ao longo dos anos em diversas atividades, sejam comerciais ou recreativas. Porém, os drones ainda não possuem total confiança no que se refere a segurança. Diante disso, surge a necessidade de criação de técnicas de identificação de falhas que se adequem às limitações encontradas. Este trabalho tem como objetivo a detecção e diagnóstico de falhas em drones em tempo real e propõe uma arquitetura para identificação de falhas mecânicas. A abordagem proposta no trabalho utiliza as técnicas de análises de sinais baseadas no caos usando a densidade de máximos (SAC-DM) e amplitude de máximos (SAC-AM). Para atingir os resultados foram capturados dados de um drone quadcóptero e aplicadas as técnicas e algoritmos classificadores. Com o SAC-DM foram alcançados desempenhos de 91% e com SAC-AM 100%. Também foi possível validar o sistema diagnosticando falhas em tempo real.
  • ANNIE ELISABETH BELTRÃO DE ANDRADE
  • ABORDAGEM DE APRENDIZAGEM DE MÁQUINA PARA PREDIÇÃO DE FAMÍLIAS DE PEPTÍDEOS ANTIMICROBIANOS VEGETAIS
  • Data: 29/08/2022
  • Hora: 10:00
  • Mostrar Resumo
  • Os peptídeos antimicrobianos (AMPs) vegetais consistem em moléculas com 29 a 100 aminoácidos e geralmente carregadas positivamente, sendo encontrados em uma ampla variedade de formas de vida. A maioria dos AMPs tem ação anti patogênica direta, enquanto outros apresentam atividade imunomoduladora. Num contexto de rápido desenvolvimento de multi resistência crescente aos antibióticos convencionais, e a necessidade da diminuição da utilização de agentes agrotóxicos, esforços para o desenvolvimento de produtos biotecnológicos baseados em AMPs vêm se acelerando. AMPs são conhecidos por terem composição de sequência específica para suas famílias, característica que pode ser utilizada para atuar na prospecção e ‘design’ de AMP, auxiliando na caracterização de funções, padrões bioquímicos e características de interesse industrial. No entanto, abordagens experimentais são custosas e laboriosas. Nesse sentido, o objetivo deste trabalho foi o desenvolvimento de modelos utilizando métodos de aprendizagem supervisionada capazes de classificar seis famílias de peptídeos antimicrobianos de plantas: Tioninas, LTPs, Heveínas, Snakinas, Defensinas e Ciclotídeos, visto que essa caracterização pode acelerar pesquisas com AMP. Os métodos utilizados para classificação foram o LightGBM, regressão logística, vizinhos mais próximos, árvore de decisão, máquina de vetor de suporte e naive bayes. O treinamento foi feito usando as bases de dados PhytAMP e PlantpepDB, cujos rótulos foram atribuídos por metodologias experimentais. Os resultados foram comparados com os sistemas CAMPSing e o descrito em Quintans (2019), bem como, foram realizados testes com o modelo desenvolvido para classificação das bases de dados do CAMPR3, que contempla as famílias Tionina e Defensina; e OneKP, utilizada por Quintans (2019), que contempla as famílias Tioninas, LTPs, Heveínas e Snakinas, ambas as bases têm rótulos atribuídos por metodologias in silico. Em relação aos resultados, considerando as bases de treinamento, o algoritmo LightGBM apresentou os melhores valores de desempenho em relação aos demais. Após as definições dos melhores hiperparâmetros, o LightGBM apresentou uma acurácia média de 91,5%. Em relação à base de dados OneKP, o método apresentou uma acurácia média de 91,2%, sendo o desempenho de predição variável entre as classes. Por fim, para a base do CAMPR3, o modelo apresentou uma acurácia média de 93%.
  • LUIZ FERNANDO FONSÊCA PINHEIRO DE LIMA
  • Usando uma Métrica de Compensação de Utilidade e Justiça para Comparar Sistematicamente Estratégias de Aprendizado Adversárias Justas e Não Generativas
  • Data: 26/08/2022
  • Hora: 14:00
  • Mostrar Resumo
  • Os sistemas de inteligência artificial para tomada de decisão tem se tornado cada vez mais populares em diversas áreas. No entanto, é possível identificar decisões enviesadas em muitas aplicações, o que se tornou uma preocupação para as comunidades de ciência da computação, inteligência artificial e direito. Desta forma, pesquisas estão sendo desenvolvidas para a construção de soluções que buscam mitigar o viés e a discriminação nos tomadores de decisão. Algumas das estratégias exploradas são baseadas em redes adversárias geradoras que geram dados justos. Outros se baseiam no aprendizado adversário para alcançar a justiça no aprendizado de máquina, codificando as restrições de justiça por meio de um modelo adversário. Muitos desses trabalhos consideram a relação entre justiça e acurácia como uma regra de “trade-off” inquebravel. Além disso, é comum que cada proposta avalie seu modelo com uma métrica específica, dificultando a comparação com os modelos da literatura. Assim, este trabalho tem como objetivo propor um procedimento de benchmark para ter um método sistemático para avaliar os modelos de aprendizado de máquina justo. Nesse sentido, definimos a métrica FU-score para avaliar o trade-off entre utilidade-justi¸ca, as métricas utilidade e justiça, os conjuntos de dados utilizados e o pré-processamento aplicado e o teste estatístico. Também realizamos essa avaliação de benchmark para os modelos adversários não generativos. A partir dos resultados alcançados pudemos analisar os modelos da literatura por uma mesma métrica e observar qual modelo teve melhor desempenho para cada conjunto de dados.
  • RENNO DE ERVEDOSA DINIZ VALE
  • Aplicativo de smartphone para produção e edição de vídeos com foco em video coaching
  • Data: 26/08/2022
  • Hora: 14:00
  • Mostrar Resumo
  • A metodologia de treinamento parental comportamental é um dos métodos mais consagrados em corrigir comportamentos inadequados em crianças. Utilizada desde a década de 70, este tratamento é considerado o mais eficaz entre os não medicamentosos, e é utilizado muitas vezes como meio de prevençãoão para famílias cuja habitação está envolta de fatores que afetariam negativamente o desenvolvimento da criança. O programa Fortalecendo Laços integra-se dentro desta metodologia e através de sua sistematização, previne que famílias necessitadas de treinamento causem males ao desenvolvimento social da criança. No entanto, tal tratamento afeta não apenas fatores sociais, mas também outros aspectos, como seu desempenho escolar e criatividade, assim, o programa pode ser um grande revés na vida de um indivíduo. Além das técnicas de aprendizagem convencionais, o programa utiliza método de vídeo coaching para auxiliar a aprendizagem e promover a auto gratificação dos participantes. No entanto, o processo de criação de vídeos para o programa é realizado manualmente com o auxilio de softwares de edição de vídeo, muita vezes lentos e complexos, o que retarda o desempenho do programa. Visto que a rápida resposta de avaliação é uma grande aliada do programa, a proposta deste trabalho é desenvolver um aplicativo para smartphones que permita, por meio de escolhas rápidas de opções pré-definidas e de uma interface simples, realizar o processo de edição de vídeo. Desta forma, o tempo de edição, produção e feedback será minimizado beneficiando o programa Fortalecendo Laços.
  • RAFAEL MARANHÃO REGO PRAXEDES
  • Uma abordagem exata unificada para uma classe de problemas de roteamento de veículos com coleta e entrega simultâneas
  • Data: 19/08/2022
  • Hora: 15:00
  • Mostrar Resumo
  • O Problema de Roteamento de Veículos (PRV) é um problema de otimização combinatória clássico amplamente estudado na literatura. Por definição, consiste em determinar as rotas de menor custo, que são iniciadas e finalizadas no mesmo depósito, de modo a atender as demandas de um conjunto de clientes. Há uma diversidade de variantes desse problema, as quais podem incluir atributos adicionais, tais como frota de veículos heterogênea, janelas de tempo, entre outros. Dentre esses problemas, há o PRV com Coleta e Entrega Simultâneas (PRVCES), que considera o fato dos clientes possuírem tanto demandas de entrega quanto de coleta a serem satisfeitas em uma única visita. Nesse contexto, este trabalho tem como objetivo propor uma abordagem exata unificada baseada em geração de colunas e de cortes para resolver dez variantes do PRVCES, incluindo a versão clássica do problema. Essa abordagem faz uso do VRPSolver, um resolvedor branch-cut-and-price estado-da-arte para problemas de roteamento e afins. Os resultados mostram que a abordagem proposta é bastante efetiva na obtenção de soluções ótimas ou aprimoramento dos limites duais para muitas instâncias da literatura em aberto.
  • SANDOVAL VERISSIMO DE SOUSA NETO
  • Detecção de Ataques Em Biometria Facial Utilizando Redes Neurais Convolucionais
  • Data: 17/08/2022
  • Hora: 10:00
  • Mostrar Resumo
  • Com cada vez mais serviços sendo disponíveis virtualmente, métodos biométricos de autenticação que utilizam características como impressões digitais e face, são necessários para garantir uma melhor segurança para o usuário. A face de uma pessoa é um de seus traços biométricos mais importantes, principalmente devido a facilidade de uso, e com isso vem ganhando espaço nos últimos anos. No entanto, conforme a utilização de métodos de autenticação por meio de biometria facial cresce, também aumentam as tentativas de ataques de impostores a esses sistemas. A grande facilidade de uso proporcionada pela biometria facial, também apresentam a desvantagem de que devido ao grande uso de redes sociais é muito fácil encontrar fotos ou vídeos de pessoas e utilizar assim fotos de sua face para realizar ataques. Faz-se então necessário um sistema capaz de detectar se uma pessoa é genuína, ou se há uma foto ou vídeo de uma pessoa real tentando burlar um sistema, essas aplicações são conhecidas como sistemas de anti-falsificação de face. Este trabalho propõe um método de detecção de falsificações utilizando redes neurais convolucionais. Os testes são realizados em quatro bancos de imagens conhecidos na literatura (NUAA, MSU, Replay Attack, OULU). Os resultados alcançam menos de 0,2% de taxa de erro igual, para alguns modelos.
2021
Descrição
  • DIOGO VENTURA DANTAS
  • Uma Abordagem de Classificação de Impressões Digitais Utilizando Redes Neurais Convolucionais Profundas
  • Data: 30/07/2021
  • Hora: 16:00
  • Mostrar Resumo
  • A sociedade está cada vez mais integrada e conectada e muitas das tarefas mais banais são realizadas de forma remota. Esse cenário trouxe diversos benefícios, mas também causou problemas como fraudes e vazamento de dados. A utilização de mecanismos de autenticação baseados em traços biométricos, como impressões digitais, face e íris, tem ganhado cada vez mais relevância na busca por segurança. O problema de identificação por impressão digital não é trivial e ainda é um problema em aberto, principalmente com o surgimento das técnicas de inteligência artificial, visto que nenhum algoritmo é livre de erros e a crescente massa de dados gera uma necessidade de confiança e velocidade. Este trabalho se propõe a utilizar técnicas de aprendizagem profunda de máquina para realizar a classificação de impressões digitais, processo que pode ser utilizado em um sistema de reconhecimento para acelerar a busca e reduzir a quantidade de comparações junto à base de dados. Esse processo de filtragem auxilia na obtenção de uma menor taxa de erro e uma maior velocidade no processo de identificação. Diversas abordagens para resolução desse problema podem ser encontradas na literatura, mas em sua grande maioria, dedicam-se a resolver uma simplificação do problema original, utilizando quatro classes ao invés das cinco classes originalmente definidas. Essa abordagem é utilizada com o objetivo de aumentar a taxa de acurácia do método e diminuir a complexidade do problema. Neste trabalho se verificou que é possível atingir resultados semelhantes aos encontrados na literatura utilizando a definição mais ampla do problema. O método proposto atingiu uma acurácia na classificação de 95,273% no banco de dados NIST-4.
  • KELSON VICTOR PRAXEDES DE ALMEIDA
  • Uma proposta de barramento de dados para integração de serviços públicos digitais
  • Data: 30/07/2021
  • Hora: 16:00
  • Mostrar Resumo
  • O uso tecnologias que visam desburocratizar serviços públicos são de suma necessidade pelas sociedades ao redor de todo o mundo. Com a utilização de artefatos e práticas tecnológicas, é possível economizar financeiramente e em tempo de trabalho. Em um país de dimensões continentais como o Brasil, esse desafio se torna ainda mais complexo, devido a grande quantidade de ministérios, órgãos, empresas públicas, secretarias, dentre outros presentes nos mais de 5570 municípios e Distrito Federal. Analisando estes fatos, a interoperabilidade de dados e informações entre os diferentes Sistemas de Informação dessas esferas é fundamental no processamento,validação e fornecimento de serviços públicos para a população. Este trabalho propõe a utilização de um barramento de troca de dados que vise auxiliar no impulso tecnológico do Governo Digital do Brasil. Essa camada interoperável tem o objetivo de fornecer um melhor atendimento tecnológico na interoperabilidade nas comunicações do e-gov. Tal proposta de barramento, chamado IO Data Bus, mostrou-se eficiente através de experimentos práticos utilizando uma simulação do contexto do fornecimento do Auxílio Emergencial pelo governo federal. Os experimentos foram feitos utilizando como prova de conceito a camada de troca de dados X-Road, que proporcionou a base tecnológica da Estônia Digital, levando a Estônia a ser considerada como uma das nações mais tecnológicas no fornecimento de serviços públicos no mundo.
  • DIEGO FILIPE SOUZA DE LIMA
  • Reconhecimento Biométrico de Orelha em Imagens Digitais 2D Utilizando Redes Neurais Convolucionais Siamesas
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 30/07/2021
  • Hora: 14:00
  • Mostrar Resumo
  • O uso das biometrias nas aplicações cotidianas vem crescendo atualmente, e com o intuito de utilizar características inatas dos seres humanos a fim de tornar mais cômodo vários processos e tarefas às quais os indivíduos são solicitados a realizarem. A orelha é um traço biométrico que vem ganhando muita atenção por conciliar uma alta apresentação de características únicas e também um tamanho que possibilita capturas não colaborativas mais fáceis que outras biometrias. Dessa forma, o presente trabalho visou desenvolver um algoritmo de extração e casamento de características da orelha em imagens digitais 2D, tanto para ambientes de captura controlada, como não controlada. O algoritmo proposto utiliza técnicas de Deep Learning conhecidas como redes neurais convolucionais siamesas, em conjunto com uma função de perda chamada Tripet Loss. Diante de uma grande dificuldade de acesso a bases de imagens de orelha, foi desenvolvido um algoritmo que foi capaz de ser competitivo com os melhores trabalhos existentes na literatura para bases de imagens de capturas controladas, como o AMI Ear Database onde o método proposto atingiu 96,3% de Rank-1 e 99,1% de Rank-5 e teve um tempo de predição 4,5 vezes menor do que a arquitetura base do estado-da-arte. Para capturas não controladas, o presente trabalho apresentou resultados inferiores ao esperado assim como todos os métodos mais recentes da literatura devido a utilização de uma base de imagens considerada muito desafiadora.
  • ISABELA NASCIMENTO CAVACO
  • Explanações Baseadas em Conhecimento para Raciocínio Indutivo em Dados de mHealth
  • Data: 30/07/2021
  • Hora: 14:00
  • Mostrar Resumo
  • Enquanto aplicações móveis para saúde (mHealth) possibilitam uma forma prática para o acesso contínuo de dados sobre as condições de saúde de seus usuários, técnicas de aprendizagem de máquina (AM) despontam como um dos principais recursos utilizados para processar estes dados. Contudo, algoritmos AM são geralmente caixa-preta e não retornam explanações sobre o raciocínio utilizado na produção dos resultados. Este estudo analisou 120 aplicações mHealth para criar uma ontologia unificada que representa as condições de saúde de potenciais usuários. Então, esta ontologia foi utilizada como conhecimento simbólico para suporte ao processo de geração de explanações em raciocínios do tipo indutivo. A ontologia integra várias dimensões relacionadas com a qualidade de vida (QoL), tais como comportamento nutricional, atividades físicas, estado emocional, etc.; permitindo a especificação de processos holísticos que podem melhorar , por exemplo, a eficiência de intervenções. Deste modo, as principais contribuições deste estudo são (1) a proposta de uma estratégia para criar conhecimento de suporte para aplicações mHealth com raciocínio holístico e explanações sobre resultados obtidos através deste raciocínio, (2) avaliação de uma abordagem baseada em lógica de descrição para a geração de explanações usando uma versão simplificada da nossa ontologia, e (3) discussão sobre importantes elementos que podem afetar a clareza e acurácia das explanações, tais como o uso de classes não-nomeadas e configurações do algoritmo de explanação.
  • ROBERTSON RICHELLE PESSOA LIMA
  • Alocação de recursos computacionais da Névoa em ambientes hospitalares inteligentes
  • Orientador : FERNANDO MENEZES MATOS
  • Data: 30/07/2021
  • Hora: 14:00
  • Mostrar Resumo
  • Com o desenvolvimento de sensores e aplicações potencializadas pela ampla utilização Internet das Coisas no contexto de healthcare, é imprescindível solucionar questões de confiabilidade e utilização inteligente de recursos para melhorar a qualidade dos serviços médicos. Por esses sensores lidarem diretamente com a saúde do usuário, a sua operação está sujeita a diversas restrições de uso, como tempo mínimo de resposta para processar os dados coletados. Computação em Névoa surgiu para solucionar tais problemas relacionados à imprevisibilidade do tráfego de informações pela internet, principalmente no que diz respeito a latência. Assim, este trabalho propõe uma arquitetura em névoa capaz de fazer a alocação de recursos computacionais dedicados ao processamento dos dados coletados pela camada IoT. Baseando-se no problema clássico do bin packing, um módulo de otimização foi desenvolvido para alocar de maneira inteligente as requisições de processamento nas máquinas disponíveis, com o objetivo de manter o custo de utilização de hardware da infraestrutura o menor possível, mas respeitando todas as restrições de utilização impostas pelo tipo de sensor. O módulo proposto apresenta um desempenho satisfatório na obtenção da alocação, gerando soluções de excelente qualidade em um curto tempo, sendo 7 e 2,8 segundos em média para executar, respectivamente, as duas etapas de otimização.
  • FRANKLIN ARTHUR MENDES VENCESLAU
  • SISTEMA PARA SUPORTE À IMPLANTAÇÃO E MONITORAMENTO DE APLICAÇÕES DE CAMPUS INTELIGENTE BASEADO EM PROTOCOLOS DE IoT
  • Data: 30/07/2021
  • Hora: 09:00
  • Mostrar Resumo
  • Nos últimos anos vem-se observando um crescimento acentuado do conceito de Internet das Coisas (IoT) como uma infraestrutura para monitorar e gerenciar com eficiência o ambiente estudado. A modernização das cadeias de produção, em especial a indústria 4.0 foi determinante para a popularização dos chamados “sistemas de monitoramento inteligentes”. No entanto, até recentemente, os dispositivos IoT eram limitados pela capacidade computacional, especialmente por fatores como largura de banda limitada e comunicação sem alto grau de confiabilidade. Tomando-se por base essa premissa, este trabalho propõe um sistema para monitoramento de aplicações de Campus Inteligente baseado em protocolos de IoT através do uso de técnicas de diversidade em nível de camada física e persistência de informações baseada em séries temporais. Como forma de validação da arquitetura proposta, será implementado um sistema para monitoramento e medição de grandezas elétricas a partir da exploração dos Protocolos CoAP e MQTT, além do novo padrão IEEE 802.15.4g.
  • ALISSON YURY DUTRA DE MEDEIROS
  • Aplicação de Técnicas Sociais em Ambientes SIoV para Apoiar a Disseminação de Eventos Emergenciais com Qualidade de Experiência
  • Orientador : FERNANDO MENEZES MATOS
  • Data: 29/07/2021
  • Hora: 15:00
  • Mostrar Resumo
  • O apoio e o tratamento diário de eventos críticos simultâneos nas cidades estão entre os grandes desafios dos centros urbanos. Para mitigar os efeitos de um evento, as autoridades competentes devem ser informadas de sua ocorrência de forma que possam realizar as ações apropriadas. Para isso, informações desses eventos devem ser disseminadas de maneira eficiente, por exemplo, através de uma notificação rápida. As redes veiculares não estruturadas (Vehicular Ad Hoc Networks - VANETs) são uma potencial alternativa para apoiar a notificação das informações dos eventos críticos arbitrários devido à ubiquidade dos veículos nas cidades. Veículos com câmeras e sensores embarcados podem auxiliar na detecção de eventos, utilizando comunicação entre os veículos (Vehicle-to-Vehicle - V2V) para disseminar os dados destes eventos na rede, e comunicação entre veículos e infraestrutura (Vehicle-to-Infrastructure - V2I) para entregar estes dados até uma entidade externa responsável pelo tratamento do evento. Embora a dinamicidade das VANETs comprometa o processo de disseminação, os relacionamentos sociais entre usuários dos veículos estabelecem comunidades locais, cuja inteligência social pode ser aplicada na disseminação dos dados coletados pela VANET a fim de apoiar a gestão pública no reconhecimento de eventos. Assim, este trabalho propõe o SOCIABLE (SOCial monItoring and disseminAtion of urBan criticaL Events), um sistema de disseminação robusta de dados de eventos urbanos críticos que atua em uma rede de Internet Social dos Veículos (Social Internet of Vehicles - SIoV). O SOCIABLE utiliza os relacionamentos estabelecidos entre os veículos que possuem interesses e/ou rotinas similares para a criação de comunidades locais, além de utilizar técnicas sociais para uma escolha inteligente de retransmissores. Assim, o SOCIABLE realiza uma disseminação direcionada (multicast) com o objetivo de entregar dados de forma mais ágil, aumentando assim a satisfação do usuário (QoE) e auxiliando no tratamento do evento. Resultados utilizando o simulador NS3 comprovaram a eficácia e eficiência do SOCIABLE ao realizar o monitoramento, a disseminação e a entrega dos dados dos eventos detectados em diferentes contextos de tráfego e utilizando diferentes técnicas sociais.
  • LARRISSA DANTAS XAVIER DA SILVA
  • Evolução, desvios e tensões na formação de uma infraestrutura de informação: Estudo de caso do Sistema Integrado de Gestão da Universidade Federal do Rio Grande do Norte
  • Data: 29/07/2021
  • Hora: 14:00
  • Mostrar Resumo
  • O objetivo desta pesquisa é estudar, sob a perspectiva teórica das infraestruturas de informação (II), a evolução, desvios e tensões sociotécnicas na formação do Sistema Integrado de Gestão (SIG) da Universidade Federal do Rio Grande do Norte, com expressiva utilização na área da educação superior brasileira. A pesquisa tem como base uma estratégia qualitativa de caráter exploratório, empregando o estudo de caso como método. Os métodos para coleta de dados foram três: coleta de documentos, entrevistas e questionários. Para etapa de seleção, análise e interpretação dos dados, foi desenvolvido um framework que teve como base os fundamentos teóricos das II e o seu objetivo é a sistematização da análise dos resultados. A pesquisa foi realizada na Universidade Federal do Rio Grande do Norte e na Universidade Federal da Paraíba. A chegada do SIG no setor da educação superior brasileira auxilia de forma dinâmica na colaboração entre a organização, professores, alunos e servidores, promovendo celeridade nos processos internos e nas tomadas de decisões. Como resultado dessa pesquisa, é possível identificar o processo de evolução por meio de uma linha cronológica, tensões e desvios sofridos pelo SIG, auxiliando a equipe de desenvolvimento e atores responsáveis pelo setor organizacional a considerarem o que está sendo positivo e negativo nesse processo. Conclui-se que os sistemas foram resultantes de uma sucessão de tensões e desvios, por isso, seu caráter emergente e contínuo. Tais tensões e desvios não foram limitações para sua evolução. O SIG vem sendo construído continuamente de modo incremental a cada ciclo de avaliação e possui o papel infraestrutural de articular diferentes comunidades de prática.
  • MARCOS HENRIQUE ALVES DA SILVA
  • Uma Abordagem para Aprendizagem Incremental de Tradutores Automáticos Neurais Português-Libras Utilizando Vocabulário Dinâmico Colaborativo
  • Orientador : TIAGO MARITAN UGULINO DE ARAUJO
  • Data: 29/07/2021
  • Hora: 14:00
  • Mostrar Resumo
  • Pessoas surdas comunicam-se naturalmente usando línguas viso-espaciais, denomina- das línguas de sinais (LS). Apesar das línguas de sinais serem reconhecidas em muitos países como uma segunda língua oficial, nem sempre os conteúdos são gerados de forma acessível para esta comunidade. Com objetivo de minimizar esses impactos, pesquisas envolvendo tradução automática utilizando Aprendizagem Profunda ganham cada vez mais espaço na literatura. Porém, uma das principais barreiras para uso dessa estratégia é a necessidade de um corpus bilíngue, o que nem sempre é uma tarefa fácil de encontrar ou produzir principalmente em línguas que estão em constante desenvolvimento, que é o caso da Língua Brasileira de Sinais (Libras). Nesse contexto, este trabalho apresenta uma heurística de inicialização de pesos com uma abordagem de treinamento incremental, ou seja, um treinamento a cada inserção colaborativa no corpus, com a finalidade de melhorar o desempenho da tradução a da nova iteração. Um estudo de caso foi desenvolvido utilizando as ferramentas de código aberto da Suíte VLibras. A heurística proposta apresentou resultados superiores em todos os experimentos realizados em relação ao seu não uso, obtendo como melhor valor 39,60 na métrica BLEU. Para além dos resultados obtidos, o estudo também colabora para o preenchimento de uma lacuna existe na literatura no que se refere a pesquisas voltadas para línguas de baixo recurso, como é o caso da Libras.
  • DANIEL FAGNER PEDROZA SANTOS
  • Um Estudo Comparativo sobre Uso de Modelos de Dados para Notas Fiscais Eletrônicas
  • Data: 28/07/2021
  • Hora: 14:00
  • Mostrar Resumo
  • Big Data consiste em um grande volume de dados e, por isso, necessita de atenção especial, como o uso de ferramentas não convencionais, que possuam a capacidade de armazenar, processar e integralizar todos as informações de uma enorme base de dados. É comum nos dias atuais, empresas e organizações adotarem essas tecnologias, visto que vivemos na era da informação, e o volume de dados cresce de forma exponencial. Isso ocorre também no mundo contábil, principalmente a partir de 2007, quando foi implementado no Brasil, através do Governo Federal, o Sistema Público de Escrituração Digital (SPED), em empresas do setor privado e também em instituições públicas do governo, responsáveis pela fiscalização e controle dessas atividades como os fiscos municipais e estaduais e a própria Receita Federal. Dessa forma o estudo compara a implementação dos modelos de dados relacional e orientado à documento, através da utilização do PostgreSQL e do MongoDB respectivamente, definindo modelos de dados distintos para representar a base de dados de NF-e. Os melhores resultados foram obtidos pelo modelo de dados orientados a documento, utilizando o MongoDB, considerando o tempo de resposta das consultas em todos os operadores avaliados.
  • THULIO GUILHERME SILVA DE AMORIM
  • Controle de Movimento Coordenado Auto-Organizável para Enxame de Micro Veículos Aéreos em Ambientes com Restrição de Sistema Global de Navegação por Satélite
  • Data: 22/07/2021
  • Hora: 08:00
  • Mostrar Resumo
  • Nesta dissertação, abordamos o problema de convergência e coesão do enxame de veículos aéreos não-tripulados (VANT). Assim, propomos um método baseado em controle proximal para agrupamento auto-organizado de UAVs. Nosso método atinge o agrupamento com eficiência na ausência de controle de alinhamento e se move em uma direção arbitrária sem qualquer controle de direção ou robôs informados. Os robôs usam uma função potencial de Lennard-Jones para manter a coesão do bando, evitando a colisão dentro dos companheiros. Nossa abordagem também pode ser usada em ambientes GNSS negados, já que também realizamos experimentos com UAVs que contam apenas com um sistema de localização visual relativo denominado UVDAR, previamente proposto por nosso grupo. Avaliamos nossa abordagem usando a métrica de ordem e o valor de estado estacionário que pode ser usado como um indicador de coesão.
  • MATHEUS LIMA MOURA DE ARAUJO
  • Uma Proposta de Interface de Videoconferência Acessível para Pessoas com Deficiência Auditiva
  • Data: 28/05/2021
  • Hora: 10:00
  • Mostrar Resumo
  • As línguas de sinais (LS) são a forma natural de comunicação entre pessoas surdas. Entretanto, apesar das línguas de sinais serem reconhecidas, em diversos países, como língua, o acesso à informação e educação ainda é um problema comum para os surdos. No Brasil, apesar da existência de várias leis de acessibilidade que determinam o suporte às pessoas surdas, muitos ainda são dependentes dos intérpretes de Libras para efetuar sua comunicação, o que prejudica sua autonomia. Em consequência disso, observa-se uma grande dificuldade dos surdos exercerem a sua cidadania e terem acesso à informação e educação de qualidade por meio das línguas de sinais, o que implica, geralmente, em atraso linguístico e de aquisição do conhecimento. Neste sentido, o presente trabalho aborda uma proposta de interface acessível de teleducação para pessoas com deficiência auditiva com intuito de facilitar o acesso à informação, possibilitando trazer para a sala de aula a figura do intérprete remoto. Essa solução envolve a adaptação da interface do sistema Video for Health (V4H), tornando possível a presença do intérprete remoto, para atender as necessidades dos alunos surdos e tornar a experiência em salas de aula mais acessível. Além disso, também foi implementado uma solução para exibição de legendas ao vivo. Para avaliar a solução proposta, será desenvolvido um conjunto de experimentos, incluindo testes com usuários surdos.
  • RAFAEL ALEXANDRINO SPINDOLA DE SOUZA
  • UM SISTEMA DE APOIO À DETECÇÃO DE ANOMALIAS EM DADOS GOVERNAMENTAIS USANDO MÚLTIPLOS CLASSIFICADORES
  • Data: 15/04/2021
  • Hora: 14:00
  • Mostrar Resumo
  • Com quantidades cada vez maiores de dados para serem analisados e corretamente interpretados, a Detecção de Anomalias (ou Outliers) surge como uma das áreas de grande impacto no contexto da Mineração de Dados (MD). Suas aplicações estendem-se aos mais diversos campos da atuação humana, notadamente na medicina, administração, gestão de processos, ciência da informação, física, economia e em muitas outras atividades. Neste trabalho, propõe-se um Sistema não paramétrico de apoio à detecção de eventos aberrantes em bases de dados estacionárias, provenientes da Administração Pública e relacionadas aos Dados de Dispensas e Inexigibilidades de Licitações do Governo Federal entre 2014 e 2019, aos Dados Orçamentários do Fundo Municipal de Saúde de João Pessoa - PB entre 2016 a 2020 e aos Dados relativos ao Gerenciamento de Frotas do Estado da Paraíba entre 2017 a 2019. A solução proposta reúne múltiplos algoritmos de detecção supervisionada e não supervisionada (OCSVM, LOF, CBLOF, HBOS, KNN, Isolation Forest e Robust Covariance) para classificar os eventos como anomalias. Os resultados mostraram que, do total de eventos retornados pela solução, em média, 90,07% deles foram corretamente identificados como outliers. Portanto, há indicativos de que a solução proposta tem potencial de contribuir para as atividades de apoio a auditoria governamental, bem como para os processos de gerenciamento e tomada de decisão, estes decorrentes da interpretação dos fenômenos presentes nos dados.
  • ÍTALO RENAN DA COSTA BARROS
  • ST-SPF e STMS: dois novos algoritmos para descoberta de caminhos em sistemas de preenchimento móvel robótico
  • Data: 19/03/2021
  • Hora: 09:00
  • Mostrar Resumo
  • Este trabalho tem como objetivo propor dois novos algoritmos, o Space-Time Swarm Path Finding (ST-SPF) e o Space-Time Multi-Start (STMS) . Os algoritmos foram testados em um simulador desenvolvido no framework PyGame, onde foram realizados experimentos com até 250 agentes em três tipos de warehouses (instâncias) diferentes, e com dois tipos representações do mapa: Grid-Based e Graph-Based. Os resultados demonstram que o ST-SPF é escalável em instâncias grandes e populosas, alcançando até 48% de redução do tempo de execução quando comparado com o algoritmo de estudo da arte Conflict-based Search (CBS), enquanto que o STMS apresentou uma vantagem ao CBS por ser mais completo (completeness) em instâncias pequenas e populosas. Por fim, também foi notado que a utilização da representação Graph-Based possui uma alta utilização de memória para instâncias complexas (acima de 600 nós), sendo a representação Grid-Based mais eficiente.
  • EDVALDO FRANCISCO DE MELO NETO
  • Previsão de Produção de Óleo em Unidades de Fluxo Hidráulico com Rede Neural Perceptron de Múltiplas Camadas
  • Data: 01/02/2021
  • Hora: 14:00
  • Mostrar Resumo
  • Identificar poços que retornam máxima produção de óleo é um ponto crucial para o planejamento e gerenciamento de um reservatório, já que a perfuração de um poço envolve muito investimento. Simuladores de reservatório comerciais são capazes de estimar produção com alta confiabilidade, mas em muitos casos exigem muito tempo e esforço computacional. Para superar essa dificuldade, esse trabalho propõe uma metodologia baseada em rede neural Perceptron de Múltiplas Camadas (MLP) para prever produção acumulada de óleo em poços de reservatório que atravessam Unidades de Fluxo Hidráulico (HFUs), que são volumes com boa capacidade de fluidez. Cada poço foi perfurado verticalmente a partir de pontos de máxima proximidade dentro das HFUs. A base de dados deste trabalho, dividida em treinamento, validação e teste, foi obtida a partir do modelo de reservatório sintético UNISIM-I-D, que tem características semelhantes ao do campo de Namorado, localizado na Bacia de Campos, Brasil. Os resultados de produção foram apresentados a partir de duas perspectivas: MLP original e sua versão pós-processada, em que ambas foram comparadas com as curvas de produção de óleo geradas pelo simulador Computer Modelling Group Ltd (CMG). O desempenho foi medido através das métricas: Raís do Erro Médio Quadrático (RMSE) e Erro Médio Absoluto em Escala (MASE), onde a MLP pós-processada superou os resultados de sua versão original com média de 0,0620 e 12,9053 para o RMSE e MASE, respectivamente, com relação aos dados de teste.
  • FABRICIO LEITE SOARES
  • Estratégia e Projeto de Interação Baseados em Agrupamento de Itens para a Elicitação de Preferências de Novos Usuários em Sistemas de Recomendação
  • Data: 01/02/2021
  • Hora: 14:00
  • Mostrar Resumo
  • Para oferecer recomendações personalizadas a um usuário, um Sistema de Recomendação faz uso de um processo de elicitação de preferências sempre que um novo usuário é registrado no sistema. Propomos que esta tarefa é melhor alcançada não pelo método clássico, onde os usuários começam por expressar preferências por itens individuais, mas sim expressando preferências por grupos de itens, uma vez que o método clássico converte de forma ineficiente o esforço de um usuário em um perfil personalizado. Testamos esta ideia desenvolvendo e avaliando um processo interativo, onde os usuários expressam prefer- ências através de grupos de itens gerados automaticamente por algoritmos de clusterização (clustering). Tal estratégia de recomendação pode ser generalizada para qualquer sistema baseado em Filtragem Colaborativa. Avaliamos nosso processo, tanto com métodos de simulação offline usando o conjunto de dados MovieLens, quanto com um experimento online com 312 usuários. Nossa avaliação revela vantagens e desvantagens envolvidas na passagem da elicitação de preferências por item para a elicitação de preferências por grupo. Os experimentos com usuários mostraram que a lista de recomendações top-N gerada por nossa proposta contém mais filmes que usuários poderão estar interessados, em comparação com o método clássico, e que um maior número de grupos impacta positivamente a acurácia de previsões, ao custo de maior esforço de escolha do usuário. Constatamos ainda que, em comparação com uma interface baseline de 15 itens, os usuários são capazes de completar o processo de elicitação de preferências em menos da metade do tempo.
  • VINICIUS MATHEUS VERISSIMO DA SILVA
  • O Uso da Análise de Emoções como Auxílio na Tradução Automática de Português Brasileiro para LIBRAS
  • Data: 29/01/2021
  • Hora: 16:00
  • Mostrar Resumo
  • Esse estudo tem por objetivo auxiliar as traduções automáticas de conteúdo em língua oral para língua de sinais, por meio da utilização de uma estratégia de análise de emoções em texto, utilizando aprendizagem de máquina. Uma vez que a propagação de informações é voltada predominantemente para as línguas orais, isso prejudica uma parcela considerável da população, os surdos. A comunidade surda tem como língua principal a língua de sinais, utilizando as línguas orais como uma língua secundária. Essa privação de informação que os surdos sofrem é visível desde os primeiros anos de vida, trazendo consequências em suas interações sociais, acadêmicas e profissionais. As Tecnologias de Informação e Comunicação (TICs) se apresentam como uma alternativa interessante para a atenuação dessas barreiras, principalmente as tecnologias voltas para a tradução automática de informação em língua oral para língua de sinais. Ao longo dos anos, apesar do aperfeiçoamento dessas tecnologias, a utilização delas ainda divide opiniões da Comunidade Surda, muito devido à qualidade de tradução dessas ferramentas e da desumanização do intérprete da língua de sinais. Assim, esse estudo surge como uma forma de tentar melhorar a disseminação de informações que possam ser absorvidas mais facilmente pela comunidade surda.
  • FILIPY GALIZA SOARES
  • Uma Abordagem Baseada em DLT para Garantia de Fixidez de Repositórios Digitais Confiáveis
  • Data: 29/01/2021
  • Hora: 10:00
  • Mostrar Resumo
  • As novas facilidades proporcionadas pelos documentos em formato digital também trazem dificuldades, traduzidas nos desafios de garantir a integridade e autenticidade desses documentos continuamente, sabendo que esse formato é bastante sensível à falhas em alguma das camadas de um sistema computacional. Organizações e normas internacionais traçam recomendações sobre fixidez para guiar os Repositórios Digitais Confiáveis (RDC) em suas missões de tentar garantir a integridade e autenticidade dos documentos ali armazenados pelo tempo que for definido (ou indefinidamente). O uso de funções criptográficas de hash possibilita a verificação de integridade de dados e sua posterior autenticidade. Porém, para se confiar na integridade atestada por uma função de hash também é necessário confiança no valor hash de referência, que eventualmente está vulnerável às mesmas ameaças dos dados cujo representa. Partindo dessa preocupação, este trabalho propõe uma abordagem em que seja feito um encadeamento em Árvores de Merkle dos hashes de inúmeros objetos digitais de um RDC e os valores raízes resultantes sejam registrados em blockchain. O uso de Árvores de Merkle possibilita a geração de um único valor que referencia a integridade de um grande número de objetos e o registro em blockchain permite garantir um valor confiável de referência ao longo do tempo para prova de carimbo de tempo, prova de existência e verificação e auditoria da integridade dos acervos em RDC, possibilitando garantir a fixidez dos mesmos.
  • CAIO MARCELO CAMPOY GUEDES
  • Transmissão de Audio com Baixa Latência sobre RedesWireless IEEE 802.11 com Foco em Acessibilidade para o Cinema Digital
  • Data: 29/01/2021
  • Hora: 09:00
  • Mostrar Resumo
  • A transmissão do reforço de áudio de um servidor para celulares usados por deficientes auditivos durante a exibição de filmes em salas de cinema e ́ um exemplo das aplicações que utilizam redes Wi-Fi e requerem a transmissão de áudio com baixa latência, sincronismo e resiliência. Nessa aplicação e ́ desejável que o retardo entre a captura e exibição do áudio fique abaixo de 40 ms, requisito que implica na otimização dos processos de codificação, transmissão e decodificação. Este estudo tem como objetivo desenvolver uma solução cliente-servidor capaz de transmitir áudio em tempo real sobre redes wireless IEEE 802.11 entre um servidor e clientes executando em dispositivos móveis. O trabalho busca limitar a latência máxima entre fonte e reprodutor a um limite de 40 milissegundos definido como limiar para a percepção de problemas com sincronização labial. Manter baixa latência evitando variações no retardo e perda de pacotes em ambientes voláteis como redes wireless é um problema complexo. Portanto, almejando o máximo de resiliência, a solução faz uso de Forward Error Correction e propõe o uso de redundância temporal para mitigar os efeitos indesejáveis provocados pelas perdas e descartes de pacotes atrasados. Adicionalmente é proposto e utilizado um novo algoritmo adaptativo que busca ajustar o buffer de playback com o propósito de atenuar o jitter da rede.
  • CAMILLA EMILLY JÁCOME FERREIRA DE FIGUEIREDO
  • Implementação e Mitigação de Ataques Cibernéticos em Sistemas SCADA
  • Orientador : IGUATEMI EDUARDO DA FONSECA
  • Data: 28/01/2021
  • Hora: 09:30
  • Mostrar Resumo
  • Em meio à realidade em que vivemos, na qual a tecnologia vem fazendo-se cada vez mais presente na sociedade, a smart grid surgiu a fim de ofertar inúmeros benefícios para a indústria e facilitar a distribuição de energia em grande escala. Entretanto, estas redes inteligentes - juntamente com seu Sistema de Supervisão e Aquisição de Dados (SCADA - Supervisory Control and Data Acquisition) - possuem numerosas fragilidades, encontrando-se expostas a diversos ciberataques que podem vir a causar insupríveis prejuízos. À vista disso, inserido no contexto de segurança de redes em sistemas ciber-físicos, o presente trabalho investiga vulnerabilidades nas comunicações entre os dispositivos presentes no SCADA, e através da execução de ataques (que caso bem-sucedidos, podem ter quaisquer fins, desde danos financeiros à letais) ambiciona penetrá-lo e comprometer os serviços fornecidos por uma smart grid e sucessivamente propor mitigações a fim de tornar esses sistemas mais seguros. Para tanto, visando a obtenção de uma análise qualitativa, utilizou-se a pesquisa bibliográfica exploratória bem como a pesquisa prática experimental como metodologia, apresentando um mapeamento sistemático na área em questão e a implementação dos seguintes ataques cibernéticos: Homem no Meio (MitM - Man-in-the-Middle), TCP Syn Flood, Ataque de ARP e Ataque Reflexão, sendo o último ausente em trabalhos anteriores. Resultante disso e mediante os estudos realizados e a efetividade dos ataques aqui trabalhados, reitera-se as vulnerabilidades do sistema exploradas em cenários reais e a importância de tais contribuições e contramedidas.
  • SACHA DE AZEVEDO VARANDAS
  • Uma análise de técnicas de captação de interatividade da plateia em salas de cinema
  • Data: 11/01/2021
  • Hora: 16:00
  • Mostrar Resumo
  • A adição da interatividade em narrativas materializadas nos filmes realizados para exibição em salas de cinema vem sendo uma das grandes ferramentas dos produtores de mídias para oferecer uma experiência inovadora e se destacar dentre as inúmeras obras que estão sendo produzidas. O cinema interativo permite que o público influencie ou mude elementos do filme, de modo que sua experiência possa ser diferente da de outras pessoas. Antes da disponibilidade da tecnologia digital, isso era feito manualmente, como no caso do Kino-automat, que permitiu que os membros da audiência votassem usando os botões vermelho e verde em seus apoios de mão. Assim, o objetivo deste trabalho é realizar uma análise comparativa de formas de interatividade empregadas em filmes realizados para exibição em salas de cinema. Para isso, foram realizados e analisados experimentos com usuários assistindo a um filme interativo interagindo através de uma aplicação web, fazendo uma interação baseada em captura de som e também de interação capturada em smartwatches.
2020
Descrição
  • DIEGO RAMON BEZERRA DA SILVA
  • Uma Arquitetura Multi-fluxo Baseada em Aprendizagem Profunda para Reconhecimento de Sinais em Libras no Contexto de Saúde.
  • Data: 22/12/2020
  • Hora: 16:00
  • Mostrar Resumo
  • Os surdos são uma parte considerável da população mundial. No entanto, embora muitos países adotem sua língua de sinais como língua oficial, existem barreiras linguísticas de acesso aos direitos fundamentais, especialmente o acesso aos serviços de saúde. Essa situação tem sido o foco de algumas políticas governamentais que obrigam os prestadores de serviços essenciais a fornecer intérpretes de língua de sinais para ajudar as pessoas surdas. No entanto, esse tipo de solução possui altos custos operacionais, principalmente para atender toda a comunidade surda em todos os ambientes. Esses contratempos motivam a investigação de metodologias e ferramentas automatizadas para apoiar esse tipo de problema. Assim, neste trabalho, é proposto um modelo de várias correntes para o reconhecimento de sinais em Língua Brasileira de Sinais (Libras). A solução proposta não utiliza nenhum sensor ou hardware de captura adicional, baseando-se inteiramente em imagens ou sequências de imagens (vídeos). Os resultados obtidos com uma arquitetura de três fluxos mostram que a melhor acurácia para o conjunto de testes foi de 99,80%, considerando um cenário em que o intérprete usado no conjunto de testes não foi usado no conjunto de treinamento. Além disso, também foi criado um novo conjunto de dados na Língua Brasileira de Sinais (Libras) contendo 5000 vídeos de 50 sinais no contexto da saúde, o que pode auxiliar no desenvolvimento e na pesquisa de outras soluções.
  • LUCAS VALE FAUSTINO DA SILVA
  • Sirius: Uma Plataforma de Middleware Distribuído e Particionado para Cidades Inteligentes
  • Orientador : GLEDSON ELIAS DA SILVEIRA
  • Data: 30/10/2020
  • Hora: 15:00
  • Mostrar Resumo
  • O ambiente urbano, em uma cidade inteligente, possui uma grande quantidade e variedade de dispositivos e tecnologias, o que torna difícil prover uma visão integrada dos dados urbanos devido à grande quantidade de possíveis múltiplos provedores. É de fundamental importância que os dados urbanos sejam gerenciados e acessados de maneira integrada, possibilitando o reuso e compartilhamento de informações, promovendo o desenvolvimento de novas aplicações e serviços, e auxiliando nos processos de tomada de decisão. Ademais, neste cenário, os dados podem estar fortemente relacionados necessitando de uma integração simples, eficiente e efetiva entre múltiplas fontes ou provedores de dados. Desta forma, este trabalho descreve a especificação, projeto, implementação e teste de uma plataforma de middleware distribuído e particionado, cujo objetivo é prover uma visão integrada dos dados urbanos, explorando estratégias de particionamento e distribuição de dados entre múltiplos provedores de dados no cenário de cidades inteligentes. Além disso, este trabalho também contribui na concepção e definição de um metamodelo de dados extensível e reutilizável, que possibilita a adoção de diferentes estratégias de integração, particionamento e distribuição de dados, estabelecendo diferentes formas de gerenciamento de provedores ou fontes de dados. Por fim, a implementação de um protótipo da plataforma de middleware é apresentada com a finalidade de validar a proposta, incluindo testes de desempenho para avaliar as estratégias de integração, particionamento e distribuição em diferentes cargas de trabalho.
  • FREDERICO AUGUSTO MONTEIRO SARAIVA
  • Tolerância a Falhas em Redes Wi-SUN/802.15.4g em Topologia Linear por meio de Controle Dinâmico de Potência
  • Data: 30/09/2020
  • Hora: 14:00
  • Mostrar Resumo
  • O desenvolvimento das tecnologias de informação fazem com que nos dias de hoje vivamos em um mundo conectado, no qual a computação pervasiva está cada vez mais presente na sociedade. Assim, as Redes de Sensores Sem Fio (RSSF) são componentes vitais na construção dessa infraestrutura de conexão. Redes Wi-SUN são uma espécie de RSSF que implementam o padrão IEEE 802.15.4g e, por natureza, suportam diversas topologias, dentre elas a linear. Desta forma, elas também carregam consigo a necessidade de tolerância a falhas. Alguns usos de redes Wi-SUN necessitam que os transceptores sejam interligados de forma linear. Nessas ocasiões, a falha em algum dos transceptores pode acarretar prejuízos extensivos devido ao rompimento do caminho da informação, uma vez que a forma linear de interligação não oferece rotas alternativas para o tráfego. Nesse sentido, a presente pesquisa tem como hipótese principal a ser seguida a de que há uma necessidade de que toda rede Wi-SUN deve ser o mais resiliente possível. Como hipótese secundária, tem-se a ideia de que uma possível redundância para um sistema arranjado de forma linear é a de que a falha de um nó pode ser mitigada por meio do controle dinâmico de potência de transmissão, de modo a sobrepor o nó defeituoso e, com isso, conseguir repassar a informação. Este trabalho visa analisar de que maneira uma rede Wi-SUN pode se manter o mais operacional possível quando os transceptores estão arranjados linearmente e há a falha em algum dos nós.
  • CECÍLIA FLÁVIA DA SILVA
  • Redes Residuais: Sobre Quantidade de Camadas e Variância Intraclasse Utilizando Aprendizagem Não Supervisionada
  • Data: 31/07/2020
  • Hora: 17:00
  • Mostrar Resumo
  • Deep Learning é um termo que surgiu na literatura para, originalmente, definir abordagens de Redes Neurais Profundas (i.e. redes que possuem acima de duas camadas ocultas). A partir disso, diferentes arquiteturas de rede foram propostas na literatura e utilizadas como referência para diferentes aplicações, destacando-se redes como VGG-16, GoogLeNet e redes residuais (ResNets). Nesse contexto, redes residuais possuem uma topologia inspirada na VGG-16, utilizando assim pilhas de camadas convolucionais de filtros 3 x 3 e, como contribuição principal, formam blocos residuais por meio de shortcut connections, com o objetivo de reduzir problemas de degradação do modelo (i.e. aumento da taxa de erro do modelo conforme aumento de profundidade da rede). A partir disso, foram propostas ResNets de 20 até 1202 camadas, entretanto, a literatura não retrata um padrão de utilização desses modelos de acordo com um determinado contexto. Sendo assim, esse trabalho teve como objetivo a realização de um estudo agnóstico, que analisa o desempenho de cinco redes residuais, assim como o custo computacional, para diferentes bases de dados. Ao todo, 15 bases de dados foram utilizadas e os modelos ResNet 20, 32, 44, 56 e 110 camadas foram treinados e avaliados para cada uma delas, sendo o desempenho dessas redes avaliado por meio da medida F1. Posteriormente, realizou-se um teste de significância, utilizando a distribuição t de Student, em que analisou-se a medida F1 de cada rede, para avaliar se houve melhoria significativa de desempenho com o aumento de profundidade. Entretanto, os experimentos realizados indicaram que, apesar do aumento de custo computacional proporcional a profundidade, não houve melhoria de resultados. Além disso, analisou-se as características de variância intraclasse para cada classe das bases de dados desse estudo, utilizando o algoritmo de aprendizagem não supervisionada k-means, sendo os clusters formados por este algoritmo avaliados de acordo com o coeficiente de silhueta. Por meio dessa análise, percebeu-se que, dentre as classes com menor medida F1, para todas as redes avaliadas, pelo menos uma das classes retornou baixa diversidade, indicando-se assim, como solução, a melhoria de representatividade da base de dados ao invés do aumento de profundidade do modelo. Sendo assim, realizou-se treinamentos com a ResNet-20, tendo como diferencial a adição de diferentes técnicas de data augmentation, em que, para todas elas, o desempenho da rede ResNet-20 foi superior ao das demais redes previamente avaliadas. Dessa forma, por meio da análise, percebeu-se que o aumento de profundidade dessas redes resulta em alto custo computacional, sendo este também proporcional a quantidade de amostras na base de dados. Entretanto, este aumento não é proporcional a melhorias de resultados dos modelos de rede avaliados, resultando em medida F1 sem variações significativas, sendo a utilização de técnicas de data augmentation mais eficaz do que o aumento do número de camadas do modelo.
  • TATIELLY DIAS DE FARIAS
  • Infraestrutura de informação: Um mapeamento sistemático da literatura
  • Data: 31/07/2020
  • Hora: 14:30
  • Mostrar Resumo
  • Introdução: Estudos sobre infraestruturas de informação (II) tem ganhado espaço nas aplicações do cotidiano devido a massiva quantidade de dados de diversas áreas distribuídos geograficamente que são compartilhados entre si, a fim de apoiar sistemas de uma organização em que pesquisas sobre II fornecem uma base para a utilização de seus conceitos em aplicações. Objetivos: A partir desse contexto, esta pesquisa teve como objetivo apresentar os trabalhos mais relevantes encontrados na literatura sobre II como forma de compreender tal área de estudo e seus campos de aplicação. Métodos: O método de pesquisa adotado foi um estudo de mapeamento sistemático, seguido de um protocolo como guia para responder cinco questões de pesquisa como forma de extrair e sintetizar estudos primários relevantes para o tema. Resultados: Foram identificados 876 estudos primários potencialmente relevantes que contribuíram com o desenvolvimento da infraestrutura de informação. Observou-se que a maioria dos estudos são aplicações que utilizam de conceitos da II em sua formação. Esta pesquisa fornece um catálogo informações dos estudos selecionados a partir da aplicação dos critérios atribuídos para inclusão ou exclusão e que responderam as questões de pesquisa. Conclusão: Esta pesquisa mostrou que o interesse sobre a infraestrutura de informação tem crescido ao longo dos anos, apresentando evidencias que alguns dos estudos que dispõem de aplicações revelam conceitos como resultado se sua concepção. Por isso, o catálogo gerado a partir dos resultados obtidos com estudos que trazem conceitos e aplicações são um importante recursos para orientar e servir como ponto de partida para futuras pesquisas e melhorias de infraestruturas de informação.
  • IGOR DE ALMEIDA MALHEIROS BARBOSA
  • Um algoritmo híbrido para o problema de roteamento de veículos do tipo dial-a-ride com frota heterogênea e múltiplos depósitos
  • Data: 30/07/2020
  • Hora: 16:30
  • Mostrar Resumo
  • Os problemas de roteamento de veículos emergem em inúmeras situações práticas em logística de transporte. Dentre elas, pode-se destacar o transporte de pessoas entre localizações de origem e destino, esse problema é conhecido como dial-a-ride problem (DARP). O DARP consiste em construir rotas de custo mínimo que atendam requisições de coleta e entrega, obedecendo as restrições de capacidade, janelas de tempo, máxima duração de rota e tempo máximo de viagem dos clientes. Este trabalho propõe um algoritmo híbrido para resolver variantes do DARP com demanda e frota heterogêneas, além de veículos que começam suas rotas em diferentes depósitos. O método combina a meta-heurística iterated local search (ILS) com um procedimento exato para resolver o problema de particionamento de conjuntos. Além disso, diversos mecanismos foram implementados para acelerar os procedimentos de buscas locais. Experimentos computacionais foram realizados em instâncias da literatura com o objetivo de avaliar diversas componentes do algoritmo. Os resultados obtidos sugerem que o algoritmo proposto superou métodos do estado da arte produzindo soluções de alta qualidade, inclusive encontrando cinco novas melhores soluções, em tempos computacionais competitivos.
  • LUANA SILVA REIS
  • Uma Metodologia Multinível de Avaliação da Qualidade da Tradução Gerada por Tradutores Automáticos para Libras
  • Data: 30/07/2020
  • Hora: 14:00
  • Mostrar Resumo
  • A tradução ou intérpretação de conteúdos em língua de sinais possibilita que pessoas surdas possam ter um melhor acesso à informação, interação e socialização, funcionando como uma ferramenta de acessibilidade. Contudo, considerando a complexidade no processo de tradução entre línguas orais e línguas de sinais, essa tradução quando realizada de forma au- tomática pode não tratar adequadamente todas os aspectos gramaticais das línguas de sinais, como por exemplo: o tratamento de palavras homônimas, advérbios de negação, verbos direcionais, frases interrogativas, frases exclamativas, entre outros. O tratamento inadequado destes aspectos pode comprometer a compreensão do usuário à tradução apresentada pelos tradutores e consequentemente interferir na comunicação tornando inadequada a experiência do usuário surdo com essas ferramentas. Sendo assim, foi desenvolvida uma metodologia multi-nível para avaliar a qualidade da tradução de tradutores automáticos da Lingua Portuguesa Brasileira (PT-BR) para a Língua de Sinais Brasileira (Libras). A metodologia apresentada neste trabalho, propõe metodos de avaliação da qualidade de tradução de tradutores automáticos, com a participação de intérpretes em Libras, com a participação de pessoas surdas e sem a participação de usuários. As metodologias propostas foram avaliadas a partir de três estudos de caso com o VLibras, uma tradutor automáticos do PT-BR para a Libras. Como resultado, obsevaram-se fragilidades no tratamento de alguns aspectos gramaticais, o que foi possível identificar pontos de melhorias no processo de tradução. Estas metodologias, podem ser ser usadas por pesquisadores e desenvolvedores na área, para identificar pontos de melhoria no processo de tradução automática de lingua oral para uma língua de sinais.
  • FABIO DE ALBUQUERQUE SILVA
  • Uma Abordagem para Localização em Ambientes Internos baseada em Impressão Digital do sinal de Wi-Fi e Aprendizagem de Máquina
  • Data: 29/07/2020
  • Hora: 14:30
  • Mostrar Resumo
  • Os serviços baseados em localização interna (Indoor Location Based Services – ILBS) vêm atraindo muita atenção nos últimos anos por causa de seu potencial social e comercial, com um valor estimado de mercado de US$ 10 bilhões em 2020. Como os sinais de satélite (GPS) e celular (GSM) não conseguem penetrar bem em ambientes internos, com paredes externas e obstáculos internos, o uso do sinal Wi-Fi, para localização interna, ganhou muita importância, tanto na área acadêmica quanto na área industrial, devido à grande penetração de LANs sem fio (WLANs) e dispositivos móveis habilitados para Wi-Fi. Em particular, a técnica baseada em impressão digital da intensidade do sinal recebido (Received Signal Strength fingerprint – RSS fingerprint) tem atraído muita atenção, por amenizar o problema de multipath (múltiplos caminhos percorridos pelo sinal entre o emissor e receptor) agravado pela existência de paredes e objetos em ambientes internos. Diante deste cenário, motivados pela busca de um ILBS eficiente e eficaz, propomos neste trabalho o uso combinado da impressão digital do Wi-Fi (RSS fingerprint) com algoritmos de Aprendizagem de Máquina, com o objetivo de identificar qual a abordagem mais adequada para localização em ambientes internos e uso racional de recursos em dispositivos móveis, considerando o erro médio de estimativa da localização próximo de 1 (um) metro. Ao contrário de outros trabalhos relacionados, que concentram esforços apenas em uma das fases do RSS fingerprint, nossa pesquisa buscou melhorias tanto na fase de construção do mapa de sinais do ambiente (fase offline) quanto na fase de localização do dispositivo móvel no ambiente interno (fase online). Neste sentido, foi realizado um projeto de experimentos com dois cenários (2D e 3D) e os resultados obtidos apresentaram erro médio mínimo de 2m no experimento 2D, com apenas 5 medições na fase offline, e 1,08m no experimento 3D, utilizando uma Rede Neural e informações da posição anterior na fase online de localização.
  • RENAN GOMES BARRETO
  • H-KaaS: Uma arquitetura de referência baseada em conhecimento como serviço para e-saúde
  • Data: 29/07/2020
  • Hora: 14:00
  • Mostrar Resumo
  • Diante da necessidade de melhorar o acesso ao conhecimento e da criação de meios para o compartilhamento e organização de dados na área da saúde, este trabalho propõe uma arquitetura de referência baseada no paradigma de conhecimento como serviço, que poderá ser usada para auxiliar no diagnóstico e na tomada de decisão clínica. A arquitetura de referência descrita, chamada H-KaaS, oferece, de maneira centralizada, acesso a serviços baseados em ontologias, descoberta de conhecimento em banco de dados, aprendizagem de máquina e a outros meios de representação do conhecimento e raciocínio. Para tal, descreve-se detalhadamente o funcionamento da arquitetura, fornecendo exemplos de implementação, destacando seus principais componentes e interfaces de comunicação. Como forma de validação da pesquisa, dois estudos de caso em serviços baseados em conhecimento foram realizados e instanciados de acordo com a arquitetura de referência proposta, usando diferentes meios de representação e extração de conhecimento. Desta forma, o desenvolvimento desta pesquisa colaborou para o surgimento de uma arquitetura de referência no domínio da saúde, capaz de gerenciar múltiplas fontes de dados e modelos de conhecimento, facilitando e centralizando seu acesso e contribuindo, assim, para o avanço do estado da arte da informática em saúde.
  • RAFAEL FARIAS CORDEIRO
  • MADE - Método de Avaliação da Qualidade de Audiodescrição
  • Data: 28/07/2020
  • Hora: 14:00
  • Mostrar Resumo
  • A audiodescrição (conhecida como AD) é uma faixa de áudio narrativa que auxilia as pessoas com deficiência visual na compreensão de conteúdos audiovisuais. O profissional responsável por gerar a AD é o audiodescritor. Este tem como tarefa transformar as informações visuais de vídeos ou apresentações em áudio para os espectadores. O processo de transformação exige tempo e possui um alto custo. Como suporte para estes profissionais, tendo em vista a redução de tempo e custo para realização das audiodescrições, sistemas automáticos geradores de audiodescrição têm sido desenvolvidos. Dito isto, o objetivo desta pesquisa consistiu em desenvolver um método para avaliar a qualidade de audiodescrição de filme seja ela gerada por humano ou máquina com intuito de auxiliar no processo de avaliação e diminuir o custo/produção da mesma. O Method of Audio Description Evaluation (MADE), método desenvolvido na pesquisa, possibilita avaliar a qualidade da AD de acordo com a viabilidade e aspectos de interesse dos pesquisadores. O MADE possui três cenários de avaliação: i) a partir da análise de aspectos técnicos por avaliador, sem envolvimento do usuário final ii) a partir da avaliação da experiência do usuário deficiente visual ao utilizar a AD; ou iii) cenário híbrido que avalia os aspectos técnicos e do usuário, e engloba complementaridade dos resultados alcançados. A aplicabilidade do MADE foi analisada em estudo de caso onde avaliou duas audiodescrições geradas por máquina por meio do cenário híbrido. Como resultado, foram identificadas em quais aspectos as ADs necessitam de melhorias, comprovando a viabilidade da aplicabilidade do método proposto. O MADE pode ser utilizado por pesquisadores e desenvolvedores na área, para identificar melhorias na audiodescrição e garantir previamente qualidade minimamente aprovada antes da mesma ser disponibilizada para o público final.
  • RODOLFO DA SILVA COSTA
  • Um Modelo de Análise de Operações de Mixagens com Bitcoins em Serviços de Mistura Centralizada
  • Data: 28/07/2020
  • Hora: 09:00
  • Mostrar Resumo
  • Por concepção, uma blockchain permite que qualquer interessado possa analisar todas as transações já realizadas na rede, além de consultar o saldo de moedas que cada carteira contém, bem como qualquer relação que possa existir entre elas. Em contrapartida, informações financeiras pessoais são dados sensíveis que necessitam de privacidade, e sua exposição pode provocar desconforto aos proprietários. Portanto, a privacidade dos detentores dos ativos nesse sistema reside, por concepção, no pseudoanonimato fornecido pelos endereços de carteiras, os quais não possuem dados pessoais associados, apenas um código identificador. Porém, a qualquer momento que um endereço de carteira seja relacionado a um usuário, toda a sua privacidade será perdida. Por outro lado, buscando o direito ao sigilo financeiro e com a perspectiva de alcançar a privacidade desejada na origem da Bitcoin, nasce um tipo de serviço que utiliza de artifícios como a troca e embaralhamento de criptomoedas para atingir o anonimato na rede. Estes serviços são chamados de cryptocurrency mixers ou cryptocurrency tumblers. O objetivo deste trabalho foi desenvolver um modelo de análise da Blockchain para auxiliar no processo de rastreamento de criptomoedas embaralhadas por esses serviços. Para tal, foram realizados testes e análises de padrões de misturas de quatro mixers que atuam na blockchain Bitcoin e o desenvolvimento de uma estratégia para representação em grafos das transações envolvidas no embaralhamento. Dentre as conclusões obtidas, mesmo considerando que alguns dos usuários de tais serviços possam ter direito ao anonimato e sigilo financeiro, além do risco oferecido por tais serviços também é nítido que a existência das mixers favorece o cometimento de crimes fiscais, como a lavagem de dinheiro e sonegação de impostos, e a sua utilização para o apoio de outras atividades ilegais. Por outro lado, ferramentas e metodologias, como as apresentadas neste trabalho, permitem que forças da lei, governos e outros interessados possam rastrear a origem das criptomoedas em cenários onde isso seja necessário.
  • CAIO SOUZA FLORENTINO
  • Sistema Automático de Contagem de Audiência com Uso de Aprendizagem Profunda
  • Data: 27/07/2020
  • Hora: 14:30
  • Mostrar Resumo
  • Contar objetos ou seres vivos é uma necessidade comum em muitas áreas da indústria, comércio e serviços. Automatizar essa atividade pode promover uma otimização do processo envolvido e, consequentemente, a redução de tempo e custos. Com isso em mente, a visão computacional é uma abordagem que oferece novas possibilidades para o processamento digital de imagens, dando ao computador uma capacidade de interpretação cada vez mais semelhante aos humanos. Este trabalho compara a eficiência das técnicas de contagem volumétrica, tanto na visão computacional tradicional quanto na aprendizagem profunda, na contagem de audiências em eventos presenciais. Como estudo de caso, a investigação concentrou-se na contagem de audiência de sessões de cinema e/ou teatro a partir das fotos da audiência. Medir o faturamento de forma automática, precisa e transparente é uma necessidade recorrente da indústria do entretenimento. Para a realização dos experimentos, foi necessário o desenvolvimento de uma base de imagens com exemplos de audiências e a quantidade de pessoas presente. A partir dos resultados foi possível observar a eficiência da aplicação da aprendizagem profunda nesse contexto. Quando comparada a várias técnicas automáticas de contagem volumétrica disponíveis, a aprendizagem profunda foi a estratégia que apresentou os melhores resultados, atingindo sensibilidade e precisão acima de 96%. É proposto um Sistema Automático de Contagem de Audiência que contém os módulos de classificação/contagem (uso de aprendizagem profunda para contagem de audiência), captura (monitoramento contínuo das imagens para melhor captura) e controle (integração, administração e operação do sistema).
  • ANGELINA STHEPHANNY DA SILVA SALES
  • Modelagem e Desenvolvimento de Formulários Digitais Acessíveis para Pessoas Surdas
  • Data: 23/07/2020
  • Hora: 16:00
  • Mostrar Resumo
  • Mesmo com acesso garantido por lei, as pessoas surdas têm dificuldades para acessar informações. Essa limitação é evidenciada quando os usuários surdos e não fluentes em Português (público-alvo) têm que informar suas opiniões como participantes de formulários, escalas de autorrelato ou responder questionários. Isso ocorre pois geralmente os instrumentos de coleta de dados tradicionais utilizados nestes tipos de avaliações são baseados em texto, não em línguas de sinais, o que pode impor dificuldades de acesso. Os modos de coleta de dados presentes na literatura envolvendo surdos não são viáveis para os cenários no qual o autor do questionário não sabe Língua Brasileira de Sinais (Libras) ou então, no experimento não descreve nenhuma ferramenta apropriada para a coleta de dados. Para minimizar esses problemas, neste trabalho é proposto modelo de formulário digital adaptado para as necessidades e requisitos de comunicação dos surdos, incluindo o suporte para Libras, denominado LibrasForm. Como prova de conceito, foi desenvolvida uma solução que permite a criação de formulários acessíveis para pessoas surdas, usando o modelo proposto. Os experimentos contemplam a aplicação da solução em um questionário de conhecimentos gerais sobre o Coronavírus e cuidados pessoais aplicados com usuários surdos. Os resultados mostraram que há indícios de que há uma melhora na compreensão nos conteúdos gerados utilizando o LibrasForms. Além disso, a solução tem o potencial para ser utilizada em outros cenários de coleta de dados e pode ser uma alternativa funcional e viável para mitigar problemas de acesso à informação dos surdos, principalmente quando intérpretes humanos não estão disponíveis.
  • ALTAIR JUSSADIR DA SILVA PINTO
  • Um algoritmo ILS–RVND para o problema de escalonamento do tipo flow shop de permutação com tempo de conclusão total como medida de desempenho
  • Data: 16/07/2020
  • Hora: 10:00
  • Mostrar Resumo
  • Este trabalho apresenta FILS, uma nova heurística do tipo ILS–RVND para o problema de escalonamento do tipo flow shop com tempo de conclusão total como medida de desempenho, que produziu 55 novas soluções para um conjunto de 90 instâncias de referência apresentadas para o problema em questão. Nesse estudo, quatro diferentes parametrizações da heurística foram examinadas através de experimentos computacionais, utilizamos as instâncias de Taillard (1993), demonstrando que a abordagem proposta é robusta e efetiva. FILS foi comparado com algoritmos tais como VNS, hDDE, DABC, HGLS, VNS4, AGA e V4AGA, e os resultados indicam que o FILS é superior na maior parte dos casos.
  • JOSÉ FAGNER RODRIGUES MEDEIROS
  • Estratégias de resolução exata para o problema do corte global rotulado mínimo
  • Data: 06/07/2020
  • Hora: 14:00
  • Mostrar Resumo
  • Neste trabalho, abordamos o Problema do Corte Global Rotulado Míınimo (PCG-RM), que é um problema de análise combinatória e pode ser definido formalmente como: seja G= (V,E,L) um grafo com arestas rotuladas, no qual V é o conjunto de vértices de G, E é o conjunto de arestas, L ́é o conjunto de rótulos (cores) sobre E e cada aresta e∈E possui um rótulo L(e) associado; o PCGRM tem como objetivo encontrar um subconjunto de rótulos L′ ⊆ L de modo que o grafo G= (V,E′,L\L′) seja desconexo e |L′| seja minimizado. Então, com o objetivo de solucionar este problema, desenvolvemos algumas estratégias de resolução exata, estendemos e adaptamos os conceitos de fecho cromático, e desenvolvemos uma nova família de formulações matemáticas chamada MFd. Para construção do MFd, tivemos como base um modelo presente na literatura chamado PART2, que é definido em Silva et al (2016). Os experimentos computacionais demonstraram que o modelo proposto neste trabalho obteve uma grande melhoria de tempo em relação ao modelo PART2.
  • PAULO RICARDO PEREIRA DA SILVA
  • Classificação e Detecção de Singularidades em Imagens de Impressão Digital Baseada em Redes Neurais Convolucionais
  • Data: 27/05/2020
  • Hora: 14:00
  • Mostrar Resumo
  • A Biometria oferece um mecanismo de autenticação confiável utilizando traços (físicos ou comportamentais) que permitam identificar usuários baseados em suas características naturais. O reconhecimento por impressão digital é uma das abordagens biométricas mais utilizadas, visto que sua alta precisão e seu baixo custo tornam os sistemas mais acessíveis e com resultados satisfatórios. No entanto, o reconhecimento por impressões digitais ainda é um problema em aberto, uma vez que erros de falsa aceitação e falsa rejeição ainda são encontrados nos algoritmos de comparação de impressões digitais. Este trabalho propõe um método de classificação e detecção de singularidades em imagens de impressão digital, que baseia-se em redes neurais convolucionais e janela deslizante. A detecção é feita por meio de janela deslizante que percorre uma imagem de entrada e extrai uma subimagem de 50x50 e a passa como argumento para o classificador rotular entre as classes laço, delta e neg ou não singularidade, criando um conjunto de singularidades candidatas para então aplicar uma filtragem e manter apenas as singularidades verdadeiras - o classificador é uma rede neural convolucional e sua arquitetura é semelhante a LeNet, com as primeiras camadas convolucionais e as últimas são totalmente conectadas. Para avaliar a efetividade do método proposto, foram utilizadas as bases de dados com e sem pré-processamento FVC2000-3, FVC2002-1, FVC2004-1 e FVC2006-3, e sem pré-processamento SPD2010, sobre as quais o melhor classificador alcançou acurácia de 99% e média de medida-F de 0.99 para as três classes, e o detector alcançou 0.84 de medida-F e \textit{IoU} mediano de 0.76.
  • MARCELO HERCULES CUNHA SOARES
  • Uma Abordagem para Auto Identificação Voluntária e Verificável de Participantes de Aplicações Baseadas em Livros-Razão Distribuídos
  • Data: 05/05/2020
  • Hora: 10:00
  • Mostrar Resumo
  • As tecnologias de livro-razão distribuído popularizaram-se com o advento das criptomoedas, sobretudo a Bitcoin, surgindo novas aplicabilidades e novos desafios. Embora tenham sido concebidas em um contexto financeiro, associado à criptomoeda, atualmente é possível encontrar tais tecnologias sendo aplicadas em diversos contextos não-financeiros. Com a evolução da tecnologia, surgiram customizações com suporte a controle de permissão de acesso em redes privadas, onde os participantes da rede são previamente conhecidos. No entanto, as DLTs públicas podem ser consideradas mais seguras por possuírem um grande número de nós compondo as redes, o que torna ainda mais difícil a ocorrência de fraudes. No ecossistema das DLTs públicas, a privacidade e o anonimato são atributos desejáveis por parte dos utilizadores. Porém, há diversas evidências de que, em alguns casos, tais atributos podem ser dispensáveis, sendo necessário que a propriedade de um endereço de carteira digital seja conhecida para garantir a legitimidade de uma transação. Este trabalho atua na investigação de mecanismos de identificação de participantes em DLTs públicas, com a propositura de um serviço público de associação de endereço para entidade, alimentado voluntariamente pelo portador do endereço, chamado de Address Name System (ANS). O ANS combina o uso de tecnologias consolidadas, a exemplo de assinatura e certificação digital, para a geração de um artefato, denominado ANS Certificate, que associa criptograficamente o detentor de um endereço de carteira digital com uma entidade do mundo real, e fornece uma arquitetura para a consulta e validação de tais certificados. Como prova de conceito da proposta, foi implementado um protótipo do serviço e foram feitos experimentos de integração para a validação funcional das suas operações com aplicações reais.
  • LUCAS OLIVEIRA COSTA AVERSARI
  • Safe H-KaaS: Uma Estratégia para Proteção Contra Violação de Conhecimento em KaaS no Domínio da E-Saúde
  • Data: 28/02/2020
  • Hora: 14:00
  • Mostrar Resumo
  • Como forma de solucionar problemas relativos ao devido acesso e distribuição do conhecimento na área médica surgiram as arquiteturas baseadas no paradigma de Conhecimento como Serviço (KaaS), com crescente interesse comercial e de pesquisa. Porém, por trás da grande quantidade de benefícios trazidos, tais serviços de distribuição de conhecimento possuem uma vulnerabilidade crítica para os usuários e mantenedores dos mesmos, a violação de conhecimento, ou knowledge breaching. Diante do exposto, o desenvolvimento desta pesquisa visa contribuir para a elaboração de uma estratégia para mitigação de ataques centralizados de violação de conhecimento em serviços provedores de conhecimento, denominada Safe H-KaaS, baseada em aprendizagem de máquina e incorporada como proxy, com foco na fácil utilização, agnosticismo da solução quanto ao serviço defendido e manutenção da qualidade de serviço e experiência do usuário. Tanto a existência da vulnerabilidade e sua gravidade, quanto a metodologia proposta e sua efetividade, são avaliadas por meio de um estudo de caso com um KaaS na área da nefrologia, demonstrando assim, a viabilidade do método na proteção de serviços de distribuição de conhecimento.
  • VICTOR MIRANDA FERNANDES
  • Uma arquitetura de rede neural para condução de veículos autônomos terrestres em estradas brasileiras
  • Data: 20/02/2020
  • Hora: 10:00
  • Mostrar Resumo
  • Os veículos autônomos são aqueles que funcionam sem um condutor humano, sendo um dos produtos que mais recebem investimento da indústria automobilística no seu desenvolvimento, com mais de 50 bilhões de dólares investidos nos últimos 5 anos. Uma das formas de implementá-los é utilizando técnicas de inteligência artificial e, apesar de já existirem diversas implementações, poucos estudos focam na condução em estradas com problemas de infraestrutura, como por exemplo: buracos, lama, estradas de barro, etc, que podem resultar em acidentes de trânsito e danos aos veículos. Isso se torna relevante, levando em consideração dados sobre rodovias brasileiras, onde, atualmente, apenas 13,7% delas são pavimentadas. Neste sentido, uma arquitetura de rede neural convolucional para conduzir veículos autônomos em estradas degradadas é proposta neste trabalho. A arquitetura foi treinada com dados extraídos do jogo Euro Truck Simulator 2 com um mapa brasileiro realístico que considera os problemas de infraestrutura citados anteriormente. A modelagem e treinamento da arquitetura foi realizada em duas fases: a primeira utilizando dados coletados via teclado e a segunda utilizando dados coletados a partir de um volante joystick e com a adição de técnicas de processamento de imagens. Os resultados mostraram que a arquitetura treinada na segunda fase obteve um desempenho superior em tempo médio para intervenção humana, ou seja, o tempo para o condutor intervir na arquitetura treinada pelos dados do volante foi cerca de 9 vezes maior quando comparado ao tempo para a arquitetura treinada com os dados coletados via teclado.
  • FELIPE CRISPIM FRAGÔSO
  • Problema Livre de Garras: Estudo Poliédrico e Soluções Exatas
  • Data: 17/02/2020
  • Hora: 14:00
  • Mostrar Resumo
  • O grafo bipartido completo K1,3 é uma árvore denominada garra. Um grafo G é considerado Livre de Garra se não houver nenhum subgrafo induzido em G isomorfo ao grafo K1,3. O Problema Livre de Garra (PLG) é NP-Completo e consiste em encontrar o conjunto mínimo s ⊂ V (G), tal que, G - S é livre de garra. Este trabalho apresenta um estudo poliédrico do politopo associado ao PLG, explicitando sua dimensionalidade, propondo instâncias e analisando quatro algoritmos de Branch-and-Cut com inequações definidoras de facetas. Além disso, dois algoritmos Branch-and-Price são propostos e uma comparação de todos os algoritmos é feita.
  • IGOR NÓBREGA DOS SANTOS
  • Proposta de um recomendador de fluxograma personalizado com visualização gráfica das dificuldades das disciplinas baseado em filtragem colaborativa
  • Data: 11/02/2020
  • Hora: 10:30
  • Mostrar Resumo
  • Os fluxogramas são construídos com base no Núcleo Docente Estruturante (NDE) que é responsável pela concepção do projeto pedagógico de um curso e podem variar dependendo da aprovação ou reprovação do próprio NDE que utiliza critérios como: a quantidade mínima de créditos por período, a duração do curso, as dependências entre disciplinas. A etapa de construção do fluxograma é de fundamental importância, pois fluxogramas mal formulados podem conter disciplinas mal distribuídas, aumentando o tempo de conclusão do curso, acarretando em maiores gastos financeiros para as universidades. Alunos têm incertezas na escolha de um conjunto de disciplinas ideal em um período, uma vez que eles não sabem, a priori, as dificuldades que enfrentarão em cada uma delas. Diante disso, surge a necessidade do desenvolvimento de sistemas de recomendação de fluxograma personalizados. O presente trabalho propõe o desenvolvimento de um recomendador de fluxograma personalizado utilizando a técnica de filtragem colaborativa com a visualização gráfica do fluxograma. Foram utilizadas cores representativas que alertarão o estudante sobre o nível de dificuldade de cada disciplina. Dessa forma, foi possível fazer uma associação entre as previsões de notas e os níveis de dificuldades para cada uma delas. Foram utilizados os parâmetros: Raiz do Erro Quadrático Médio (Root Mean Square Error, RMSE), Erro Médio Absoluto (Mean Absolute Error, MAE) e a análise da matriz de confusão para testar a eficiência do recomendador. O recomendador de fluxograma foi testado com um conjunto de 298 alunos ativos, do curso de Engenharia de Computação da UFPB, realizando recomendações de disciplinas para todos os períodos do curso, resultando em uma previsão de nota com RMSE de 1,74 e o MAE de 1,33. Além disso, foram obtidos 88,71% de acurácia, 98,52% de especificidade e 54% de sensibilidade. Como possíveis resultados da presente proposta, espera-se a diminuição do risco de reprovação nas disciplinas, uma vez que o aluno terá, de forma antecipada, informações do fluxograma com visualização gráfica sobre as dificuldades das disciplinas através de um fluxograma colorido, podendo assim, planejar melhor a sua dedicação para cada uma delas.
  • TÁRSIO GOMÍDES LIMA DOS SANTOS
  • Sistemas de recomendação para o AVA Moodle: uma abordagem baseada em Filtragem colaborativa e na Taxonomia Revisada de Bloom
  • Data: 31/01/2020
  • Hora: 14:00
  • Mostrar Resumo
  • No cenário atual, a educação a distância e até mesmo a presencial vem fazendo uso dos ambientes virtuais de aprendizagem como ferramenta. Porém, geralmente essas ferramentas não se adaptam ao perfil e necessidades do aluno, como é o caso do Moodle. Com a finalidade de resolver o problema para as chamadas questões de avaliação do Moodle, esse trabalho propõe e desenvolve uma API REST para gerar recomendações usando a Taxonomia Revisada de Bloom, filtragem colaborativa baseada no usuário e também um módulo de eficiência. O recomendador utilizou dados de um curso de LC-EAD da UFPB para sua validação e os resultados obtidos foram recomendações personalizadas de acordo com as características dos usuários. Logo, se espera que a utilização deste serviço possa trazer benefícios para estudantes, os quais receberiam sugestões de atividades que de fato possam alavancar o nível cognitivo dos mesmos. Ademais, como tal abordagem auxilia no aprendizado do aluno, a mesma também tem o potencial de reduzir a taxa de evasão dos estudantes envolvidos em programas de educação a distância.
  • ABRAÃO AIRES URQUIZA DE CARVALHO
  • Utilização de Traços Simbólicos e SMT Solvers para a Verificação de Equivalência Observacional em Segurança e Privacidade de Protocolos
  • Data: 31/01/2020
  • Hora: 10:00
  • Mostrar Resumo
  • Atacantes e usuários maliciosos em redes de computadores podem usar uma série de técnicas para obter informação sensível. Dentre elas, a utilização do tempo e da assinatura do tráfego de pacotes como canal lateral abre várias brechas de segurança.A verificação automática desses ataques, no entanto, não consistem apenas nas técnicas convencionais de propriedades baseadas em alcançabilidade. Isso se deve porque o ataque não possui uma configuração intrinsecamente ruim, como um estado em que um intruso possua um segredo. O ataque existe quando uma determinada configuração apresente um comportamento que outra configuração distinta não possua, possibilitando distinguir uma da outra. Esse trabalho oferece uma definição formal de equivalência observacional no âmbito do tempo e da análise de tráfego, baseada em equivalência de traços simbólicos. Além disso, implementa alguns exemplos discutidos como prova de conceito.
  • BRUNO ADONIS DE SA
  • Uma Abordagem Baseada em Perceptron Multicamadas para Detecção de Faltas no Estator de Geradores Eólicos do Tipo PMSG
  • Data: 31/01/2020
  • Hora: 10:00
  • Mostrar Resumo
  • Entre os geradores eólicos, os baseados na máquina síncrona de ímã permanente (do inglês, Permanent Magnet Synchronous Generator - PMSG) apresentam interrupções de operação recorrentes devido à ocorrência de falhas internas. Falhas internas são de difícil detecção e que podem conduzir, silenciosamente, a danos na máquina e podem ocorrer entre as espiras, sendo denominadas espira-espira, ou entre espiras e a carcaça da máquina, sendo denominadas espira-terra. Assim, estas plantas devem ser constantemente monitoradas para que essas falhas sejam detectadas em seu estágio inicial. Essa detecção precoce possibilita a redução do custo de manutenção, ao mesmo tempo em que diminui o tempo de inatividade das turbinas eólicas. Este trabalho propõe uma estratégia para detectar falhas no estator em seu estágio inicial de forma não invasiva por meio de um módulo classificador que analisa os padrões da corrente do estator. Este classificador baseia-se em uma rede neural do tipo perceptron multicamadas (do inglês, Multilayer Perceptron - MLP), que foi treinada utilizando um conjunto de dados de instâncias geradas por meio de um modelo matemático de uma turbina eólica baseada no PMSG. Os resultados mostram que o classificador MLP é capaz de detectar o problema proposto com 97,62% de acurácia. Além disso, a detecção foi alcançada em um estágio inicial, de 1% a 4% de espiras defeituosas com acurácia de 100%, contribuindo para uma detecção continua e não invasiva de falhas internas ao estator da turbina eólica.
  • DUNFREY PIRES ARAGÃO
  • SpaceYNet: a Regression Pose and Depth-scene Simultaneously
  • Data: 31/01/2020
  • Hora: 10:00
  • Mostrar Resumo
  • Um dos problemas fundamentais da robótica móvel é o uso de informações sensoriais para localizar um robô móvel dentro de um específico contexto. Neste trabalho, foi desenvolvida uma nova abordagem para o dilema da realocalização global, que se refere a conhecer a posição do agente e evitar ações imprevistas de outros atores a partir de uma imagem. Para contemplar, incorporamos cinco camadas Inception, apresentadas por GoogLeNet 1V1, em uma arquitetura simétrica das camadas sequenciais realizando amostragens e revertendo esta atividade, que permite realizar duas tarefas da visão computacional simultaneamente: esti- mar depth-scene do momento capturado e regredir o 6-DoF, a partir da imagem RGB monoc- ular de uma câmera de robô móvel. Além disso, implementamos uma solução de redes recor- rentes que permite que a solução aprenda características dp contexto do ambiente percorrido. Chamamos esta solução como SpaceYNet, e ela opera regredindo depth-scene, que pode ser auxiliar em aprimorar a previsão de 6-DoF, diferentemente de trabalhos propostos encontra- dos, que são definidos para atuar em condições de ambientes controlados ou que trabalham resolvendo uma única tarefa. Nós avaliamos o SpaceYNet comparando-a com PoseNet e ContextualNet, que são o estado da arte na regressão da localização de robôs usando redes neurais convolucionais e extensão da primeira usando redes LSTM, originando SpaceYNet v.2. Esta comparação foi baseada em dois conjuntos de dados diferentes; uma pública e uma gerada em ujm laboratório amplo, rico em detalhes e com variações internas. A com- paração da rede SpaceYNet mostrou maior precisão na regressão do 6-DoF, sendo melhor em 58,42% dos casos com o conjunto de dados público em porcentagens globais quando comparado aos casos PoseNet e 56,06% trabalhando com o conjunto de dados gerado em laboratório. Quando comparamos SpaceYNet v.2 à rede ContextualNet, também houve mel- hor acurácia, e quando comparamos SpaceYNet v.1 e SpaceYNet v.2, esta diferença é de 67.5% de acurácia superior para a SpaceYNet v.2.
  • SUZANE GOMES DOS SANTOS
  • Uma solução para Análise de Vegetação, Separação e Localização de Zonas de Manejo em Imagens Aéreas Utilizando Sistemas com Baixo Poder de Processamento
  • Data: 31/01/2020
  • Hora: 09:00
  • Mostrar Resumo
  • Esse trabalho propõe uma técnica para subdividir um campo em zonas de manejo, processando imagens aéreas capturadas por VANTs através do Índice de Vegetação por Diferença Normalizada (NDVI), permitindo ao agricultor localizar determinada zona e identificar qual tratamento esta necessita. Além disso, esta técnica visa realizar essa tarefa num curto espaço de tempo, permitindo análises instantâneas em computadores com baixo poder de processamento, e, inclusive, em um dispositivo embarcado, ambos apresentados neste trabalho. Para realizar essa separação de forma rápida, são realizadas diversas otimizações no algoritmo para NDVI e no algoritmo de classificação não supervisionada K-means. Como caso de estudo, foram utilizadas imagens de plantação de cana-de-açúcar capturadas por um VANT. Ao final, são apresentadas as imagens classificadas e os dados da avaliação de desempenho da solução proposta tanto em um computador convencional, quanto em um sistema embarcado. Além disso, para determinar a localização de cada zona de manejo, também foi desenvolvido um sistema de captura de coordenadas geográficas a partir da imagem do campo segmentada.
  • AELLISON CASSIMIRO TEIXEIRA DOS SANTOS
  • TSNSCHED: Automated Schedule Generation for Time Sensitive Networking
  • Data: 30/01/2020
  • Hora: 10:00
  • Mostrar Resumo
  • Time Sensitive Networking (TSN) is a set of standards enabling high performance de- terministic communication using time scheduling. Due to the size of industrial networks, configuring TSN networks is challenging to be done manually. We present TSNsched, a tool for automatic generation of schedules for TSN. TSNsched takes as input the logical topology of a network, expressed as flows, and outputs schedules for TSN switches by using an SMT-solver. The generated schedule guarantees the desired network performance (specified in terms of latency and jitter), if such schedules exist. TSNsched supports unicast and multicast flows, such as, in Publish/Subscribe networks; can combine existing variants of TSN scheduling problems, and reason about the best-effort and priority TSN traffic. TSNsched can be run as a standalone tool and also allows rapid prototyping with the available JAVA API. We evaluate TSNsched on a number of realistic-size network topologies. TSNsched can generate high performance schedules, with average latency less than 1000μs, and average jitter less than 20μs, for TSN networks, with up to 93 subscribers and up to 10 multicast flows.
2019
Descrição
  • RUBENS GODOFREDO SOARES CORREIA
  • Formulações matemáticas e algoritmo híbrido para o problema de programação de sessões técnicas de conferências
  • Data: 13/12/2019
  • Hora: 16:00
  • Mostrar Resumo
  • Este trabalho trata do problema de programação de sessões técnicas de conferências. O objetivo é maximizar o benefício de alocar trabalhos com temas em comum em uma mesma sessão, satisfazendo restrições de recurso bem como aquelas impostas pelos organizadores. Duas formulações matemáticas baseadas em programação linear inteira são apresentadas para o problema, que por sua vez é mostrado ser NP-Difícil. Dado o limite de escalabilidade dos modelos, um algoritmo híbrido que combina uma meta-heurística baseada em busca local e um procedimento baseado em programação matemática é proposto para resolver instâncias realísticas de grande porte. Experimentos computacionais foram conduzidos em instâncias de pequeno e médio porte, nas quais a heurística desenvolvida foi capaz de encontrar a maioria dos ótimos conhecidos. O algoritmo foi comparado com soluções geradas manualmente além de ter sido utilizado como ferramenta na geração de alguns eventos ocorridos no Brasil.
  • THIAGO VIANA DE CARVALHO
  • Avaliação da Presença Espacial e Auto Presença em Realidade Virtual com Cenários 360o: Um Estudo de Caso como Jogo Caixa de Pandora
  • Data: 12/12/2019
  • Hora: 09:00
  • Mostrar Resumo
  • A realidade virtual constitui uma técnica avançada de interface que proporciona ao usuário a sensação de que este está presente no ambiente virtual, podendo essa experiência imersiva ser expandida com o uso de outros dispositivos multissensoriais. Estas tecnologias tem se desenvolvido de uma forma acelerada nos últimos anos, expandindo-se em uma ampla gama de aplicações nas mais diversas áreas, dentre elas, o ramo de educação e treinamento, onde se destacam como ferramentas de aprendizado dentro desta área os serious games, jogos desenvolvidos com um propósito específico que vai além do entretenimento. Este trabalho objetivou avaliar se a sensação de presença proporcionada pela RV em serious games baseados em cenários 360o. Para isso, foi utilizado como estudo de caso o jogo Caixa de Pandora, um jogo educativo que objetiva a educação por meio da conscientização sobre o tema violência contra a mulher. Para tanto, foi desenvolvida uma aplicação piloto que considerou a temática, bem como um questionário. O questionário foi baseado em outros questionários consolidados voltados a presença e experiência de jogo, adequando-o ao objetivo do trabalho,. Este questionário foi utilizado para avaliar a sensação de presença dos jogadores. São contribuições do presente trabalho a proposição de um jogo que utiliza a tecnologia de cenários 360o como potencializador da sensação de presença e aproximação do jogador ao problema abordado, um questionário que expande trabalhos anteriores sobre presença em realidade virtual ao considerar também elementos de jogos, bem como diretrizes para o desenvolvimento de cenários 360o voltados para jogos.
  • THIAGO VIANA DE CARVALHO
  • Avaliação da Presença Espacial e Auto Presença em Realidade Virtual com Cenários 360o: Um Estudo de Caso como Jogo Caixa de Pandora
  • Data: 12/12/2019
  • Hora: 09:00
  • Mostrar Resumo
  • A realidade virtual constitui uma técnica avançada de interface que proporciona ao usuário a sensação de que este está presente no ambiente virtual, podendo essa experiência imersiva ser expandida com o uso de outros dispositivos multissensoriais. Estas tecnologias tem se desenvolvido de uma forma acelerada nos últimos anos, expandindo-se em uma ampla gama de aplicações nas mais diversas áreas, dentre elas, o ramo de educação e treinamento, onde se destacam como ferramentas de aprendizado dentro desta área os serious games, jogos desenvolvidos com um propósito específico que vai além do entretenimento. Este trabalho objetivou avaliar se a sensação de presença proporcionada pela RV em serious games baseados em cenários 360o. Para isso, foi utilizado como estudo de caso o jogo Caixa de Pandora, um jogo educativo que objetiva a educação por meio da conscientização sobre o tema violência contra a mulher. Para tanto, foi desenvolvida uma aplicação piloto que considerou a temática, bem como um questionário. O questionário foi baseado em outros questionários consolidados voltados a presença e experiência de jogo, adequando-o ao objetivo do trabalho,. Este questionário foi utilizado para avaliar a sensação de presença dos jogadores. São contribuições do presente trabalho a proposição de um jogo que utiliza a tecnologia de cenários 360o como potencializador da sensação de presença e aproximação do jogador ao problema abordado, um questionário que expande trabalhos anteriores sobre presença em realidade virtual ao considerar também elementos de jogos, bem como diretrizes para o desenvolvimento de cenários 360o voltados para jogos.
  • RAPHAEL MEDEIROS ALVES
  • Minimizando os custos energéticos de alocação de aulas a salas: o caso de uma instituição federal de ensino
  • Data: 12/11/2019
  • Hora: 14:00
  • Mostrar Resumo
  • Este trabalho trata do problema de alocação de aulas a salas (PAAS) no contexto de uma instituição federal de ensino de grande porte. Na prática, esse problema deve ser resolvido no início de cada período letivo. Atualmente, o PAAS da instituição em questão é resolvido manualmente, o que não é apenas uma tarefa árdua, mas também muito demorada, diversas vezes levando a soluções ineficientes. Ao analisar a solução manual com a perspectiva do custo energético de cada aula em uma sala, é possível notar que há perdas financeiras. Por exemplo, não é interessante alocar turmas com poucos alunos em salas com grandes capacidades, que por sua vez tendem a ter custos energéticos mais altos. Além disso, uma solução inadequada pode gerar uma falsa percepção de escassez de salas, acarretando, assim, de forma imprecisa, que novas salas devem ser construídas para acomodar adequadamente todas as turmas. O objetivo deste estudo é minimizar o custo energético associado ao uso dos locais de aula, neste caso salas de aula e laboratórios de informática, atendendo aos requisitos especificados pela instituição. Para resolver diferentes versões do problema, foram propostos cenários de formulações matemáticas baseados em programação linear inteira. Os modelos desenvolvidos foram testados em instâncias reais de dois campi envolvendo até 3046 aulas e 97 locais. Todos os cenários de formulações propostos foram capazes de alcançar uma redução significativa de custos quando comparadas com a solução manual, com até 30% de economia de energia. Dentre essas formulações, a minimização na quantidade de locais também foi um dos propósitos deste estudo, onde foi obtida uma redução de 97 para 55 locais de aula com a instância mais recente do caso estudado.
  • IURY ROGÉRIO SALES DE ARAUJO
  • Busca de Serviços Baseada em Perfis Sociais de Objetos em Redes SIoT
  • Data: 30/08/2019
  • Hora: 17:00
  • Mostrar Resumo
  • O crescimento acelerado do numero de dispositivos conectados a Internet provocou um grande impacto na infraestrutura da Internet das Coisas (IoT), gerando desafios para o gerenciamento de servicos e de objetos, tais como: escalabilidade, heterogeneidade e volume de dados transferidos. Um novo paradigma, chamado de Social Internet of Things (SIoT), foi proposto para solucionar os desafios enfrentados pela IoT, introduzindo o conceito de redes sociais para organizar e gerenciar objetos e servicos, proporcionando assim melhorias nas funcionalidades da rede. Por ser um novo paradigma, a SIoT apresenta desafios para adaptacao das funcionalidades do middleware IoT, como a busca de servicos, a um novo contexto social. Outro desafio e integrar o potencial oferecido pelas redes sociais as funcionalidades do middleware, como a abstracao dos objetos por meio das suas caracteristicas e informacoes, as quais podem ser representadas atraves de perfis sociais. Tais perfis oferecem a possibilidade de criar e utilizar relacionamentos entre objetos para auxiliar no gerenciamento dos servicos, tais como a busca. Este trabalho propoe um metodo de busca baseado nas caracteristicas e informacoes dos objetos contidas em seus perfis sociais para auxiliar no gerenciamento de servicos em redes IoT. Testes realizados mostraram a eficacia do metodo de busca proposto ao encontrar objetos que atendam as requisicoes de forma mais satisfatoria quando comparadas aos da literatura.
  • LEANDRO PAIVA ANDRADE
  • NeuroReality: Um sistema para inserção, análise e gerenciamento de dados de eletroencefalografia em ambientes virtuais
  • Data: 30/08/2019
  • Hora: 16:30
  • Mostrar Resumo
  • A realidade virtual é uma tecnologia que possibilita a ação integrada entre computadores e cérebro humano. A viabilidade de reproduzir situações reais de forma controlada e a possibilidade de simular e visualizar ações impossíveis de serem percebidas no mundo real fazem com que este tipo de tecnologia encontre aplicações em diversas áreas, como na saúde, educação e entretenimento. No campo da neurociência, a realidade virtual, combinada à interfaces cérebro-computador, tem se tornado uma importante ferramenta para o estudo e entendimento da atividade cerebral, além de contribuir grandemente para a reabilitação de funções cerebrais debilitadas. Neste sentido, o objetivo deste trabalho foi a criação de um sistema denominado “NeuroReality”, o qual possui um componente para o ambiente Unity e uma interface simples de gerenciamento, onde pesquisadores ou interessados na área de neurociência podem inserir, visualizar e manipular dados de eletroencefalograma em um ambiente virtual de teste. Para o desenvolvimento do componente, utilizou-se a linguagem de programação C#, o ambiente de desenvolvimento Visual Studio 2017, o motor de jogo Unity e uma versão empacotada da Rede Periférica de Realidade Virtual (do inglês, Virtual Reality Peripheral Network, VRPN), denominada Unity Virtual Peripheral Network (UVRPN). Em relação ao desenvolvimento da interface, utilizou-se a linguagem de programação Java, o ambiente de desenvolvimento NetBeans e a versão em Java da biblioteca VRPN. O produto obtido é um sistema que disponibiliza ao usuário todas as suas funcionalidades em uma só interface, simples e intuitiva, onde é possível acessar os dados de eletroencefalografia e, simultaneamente, realizar ações em objetos contidos no ambiente virtual. O sistema também possui a capacidade de capturar e salvar os dados de EEG em função do tempo, em forma de tabelas, e registrar o ambiente virtual ao qual o componente está associado, em forma de vídeo, para possíveis futuras análises.
  • MATEUS FERREIRA DOS SANTOS
  • DICOMFlow Social: Modelo Arquitetural de uma Rede Social Profissional para Telerradiologia
  • Data: 30/08/2019
  • Hora: 16:00
  • Mostrar Resumo
  • Mesmos com os avancos das tecnologias da informacao e comunicacao nos ultimos anos, ainda constatamos problemas com o compartilhamento de imagens e exames radiologicos entre as instituicoes de saude, pacientes com os medicos, entre os medicos etc. O objetivo deste projeto e apresentar um modelo arquitetural de uma Rede Social Profissional de Telerradiologia, o DICOMFlow Social na qual os pacientes, profissionais e entidades de saude possam compartilhar e distribuir exames de imagens medicas de maneira rapida e segura. Com isso, criaremos mais um espaco para a pratica da telerradiologia, pois nos moldes atuais, ainda nao e uma tarefa trivial de ser feita. O DICOMFlow Social segue dois grandes conceitos: a Infraestrutura de Informacao (II) que e uma infraestrutura preexistente (base instalada) que oferece compartilhamento de informacoes, colaboracao entre as pessoas, recursos tecnologicos situados em contextos geograficos distintos etc.; e os conceitos e mecanismos de comunicacao da Computacao Social para fazer a interacao social entre os membros. O DICOMFlow Social e formado pela base instalada DICOMFlow que e um modelo de arquitetura assincrona, descentralizada e assimetrica para a transferencia das imagens medicas, construido sobre a infraestrutura de e-mail e PACS/DICOM. Tambem, o DICOMFlow Social e composto pela infraestrutura de Notificacao, responsavel por avisar aos membros da rede sobre algum evento criado, usando bibliotecas de terceiros, mas a rede tambem tera a sua propria infraestrutra de notificacao; e o de Pagamento on-line (e.g., MOIP, PagSeguro), que sera totalmente terceirizada. Sera responsavel pela transacao financeira entre os membros da rede. E por fim, a rede tera os recursos ja conhecidos de outras redes sociais (e.g., Facebook, LinkedIn) como criar lista de contatos, curtir, compartilhar, comentar alguma postagem, pesquisar alguma informacao entre outras atividades.
  • ANDERSON RUFINO DOS SANTOS SILVA
  • Uma abordagem baseada em otimização para geração de licks de guitarra
  • Data: 30/08/2019
  • Hora: 15:00
  • Mostrar Resumo
  • O presente trabalho descreve o funcionamento de uma abordagem computacional que, mediante o uso de metodos exatos e heuristicos, realiza a construcao de fragmentos melodicos, os quais sao representados, mais especificamente, atraves de licks de guitarra. Este tipo de aplicacao integra-se no campo da Composicao Algoritmica, que e a criacao de musica com o auxilio de algoritmos. Para tal feito, um banco de fragmentos melodicos menores intitulados sublicks e utilizado. Estes fragmentos equivalem a porcao mais elementar de um lick de guitarra, que sao as notas musicais. Diante disso, um conjunto de regras sao estabelecidas para pontuar transicoes entre os sublicks, e assim, podemos determinar uma matriz de custo para auxilar na concatenacao dos mesmos, resultando em um lick completo. Tal concatenacao e realizada por um modelo matematico, que ainda leva em conta determinadas entradas, como por exemplo, quantidade de notas musicais e tecnicas de guitarra a serem utilizadas na construcao do lick. Adicionalmente, um modelo probabilistico baseado em Cadeias de Markov fez-se necessario na construcao de um tipo diferente de lick, chamado de lick turnaround, devido as suas caracteristicas peculiares.
  • JULIO ZINGA SUZUKI LOPES
  • Uma Abordagem de Processamento de Consultas para Plataformas de Middleware Distribuído e Particionado no Contexto de Cidades Inteligentes
  • Data: 30/08/2019
  • Hora: 14:30
  • Mostrar Resumo
  • Hoje, mais da metade da populacao mundial vive em cidades, enquanto a expectativa e que este quantitativo alcance cinco bilhoes de pessoas em 2030. O aumento da densidade populacional nos centros urbanos exige a adequacao de servicos e infraestrutura. Esta explosao populacional dos grandes centros representara os maiores desafios, como por exemplo no tocante a poluicao do ar, mobilidade urbana, problemas de saude, energia e gestao de lixo. Solucoes para estes desafios requerem a integracao de varias Tecnologias da Informacao e Comunicacao (TICs). As cidades que exploram estas solucoes, com a utilizacao de TIC's para auxiliar no enfrentamento de seus problemas, tem sido chamadas de Cidades Inteligentes. Todavia, as primeiras solucoes criadas apresentaram limitacoes, pois em geral eram baseadas em sistemas independentes, com tecnologias diferentes e sem a preocupacao com interoperabilidade e escalabilida. Neste contexto, plataformas de middleware tem sido utilizadas como infraestrutura para auxiliar o desenvolvimento de aplicacoes, sistemas e servicos de cidades inteligentes. Dentre os principais desafios destas plataformas, a integracao de dados e bastante representativa, pois permite fornecer aos usuarios informacoes consolidadas de diferentes provedores com transparencia de localizacao e de formato de representacao. Nesta direcao, este trabalho propoe uma abordagem de processamento de consultas para plataformas de middleware distribuido e particionado, cujas informacoes estao armazenadas em diferentes provedores de dados heterogeneos e geograficamente distribuidos. Um estudo de caso com significativo volume de dados semirreais de transporte publico foi desenvolvido para validar e avaliar a abordagem proposta. Neste estudo de caso foram organizados 5 cenarios envolvendo ate 10 provedores, com 10.000 entidades ao todo. Em cada cenario, foi avaliada a vazao no processamento de consultas. Na comparacao com um provedor de dados largamente utilizado em projetos europeus para cidades inteligentes, a abordagem proposta alcancou um ganho na vazao de ate 586%.
  • ARTHUR DE MEDEIROS BATISTA
  • MODELAGEM CONCEITUAL DE CONHECIMENTO USANDO LÓGICA DE DESCRIÇÃO: UM ESTUDO DE CASO NO DOMÍNIO DA NEFROLOGIA
  • Data: 30/08/2019
  • Hora: 14:00
  • Mostrar Resumo
  • A modelagem conceitual de conhecimento para composicao de ontologias consiste basicamente da captura de aspectos fisicos (conceitos) e sociais (relacoes) de dominio, e envolve certa complexidade devido a propria natureza complexa do conhecimento humano. O suporte a decisao clinica baseado em conhecimento tem se mostrado uma area de interesse de pesquisa em crescimento. Diversos trabalhos mostram o uso de ontologias no processo de tomada de decisao e de auxilio ao diagnostico medico em diversas especialidades. Para garantir que a complexidade e a corretude do conhecimento seja preservada em modelos conceituais usados para representar conhecimento, e realizar raciocinio sobre ele, sao utilizados diferentes formalismos, e a logica de descricao e um dos formalismos dos que tem se destacado devido ao seu poder de expressividade e sua semantica bem definida. No Brasil, a saude publica enfrenta desafios, e um deles e atender de forma adequada os pacientes que precisam dos servicos que vao desde a atencao basica ate a atencao especializada, tratando pacientes de baixa complexidade com cuidados basicos e encaminhando os mais complexos a atencao especializada. Nesse contexto, e importante que medicos de atencao basica sejam capazes de fazer diagnosticos adequados e, seguindo os protocolos de encaminhamento relacionados, tratar ou encaminhar os pacientes a atencao especializada em saude, quando necessario. Apresentamos, neste trabalho, o processo de modelagem conceitual de uma diretriz clinica para o tratamento e encaminhamento de pacientes com doenca renal cronica (DRC) usando logica de descricao. A modelagem do dominio foi feita em duas etapas: a elicitacao dos termos relevantes do dominio e a construcao do modelo conceitual, a partir do mapeamento desses termos para conceitos e papeis na abordagem da logica de descricao. A elicitacao dos termos foi feita usando uma metodologia baseada no lexico ampliado da linguagem (LAL) a partir da diretriz clinica especifica. A modelagem conceitual, por sua vez, foi feita a partir do mapeamento dos termos da diretriz clinica para conceitos e papeis na abordagem da logica de descricao. A partir do modelo conceitual, foi implementada uma ontologia usando a linguagem OWL, mais especificamente sua extensao que permite incluir axiomas escritos em logica de descricao, a OWL-DL. Consultas foram feitas a ontologia e as respostas obtidas sao comparadas com respostas dadas por outra ontologia nao modelada usando o mesmo formalismo. Os resultados mostraram que a logica de descricao, utilizada na etapa de modelagem, permite a construcao do modelo do dominio de acordo com as especificidades e com o nivel de detalhamento exigido. Quando esse modelo e implementado em linguagem de programacao de ontologias como OWL-DL, que incorpora a semantica da logica de descricao, o resultado e um aumento no nivel de expressividade da ontologia e consequentemente da acuracia das respostas dadas por ela as consultas realizadas.
  • GIOVAN CARLO GERMOGLIO
  • Estudo de caso do alinhamento de gateways na Infraestrutura de Informação da Internet
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 30/08/2019
  • Hora: 14:00
  • Mostrar Resumo
  • Uma infraestrutura encontra-se dentro de outras estruturas, tecnologias ou arranjos sociais, onde sao compartilhadas, abertas, heterogeneas e que evolui ao passar do tempo. Uma vez que seu escopo de atuacao e migrado de um ambiente local para um espaco global, ha a possibilidade de surgimento de tensoes. Da mesma forma, o crescimento das Infraestruturas de Informacao (II) faz com que os projetistas devam lidar com os efeitos limitativos das escolhas feitas no inicio do projeto. Essas limitacoes sao conhecidas como dependencia de caminho ou como salientes reversos. Apesar de ser inevitavel que surjam as limitacoes durante toda evolucao, o uso dos gateways na II torna-se um elemento chave como solucao, permitindo que se mantenha a capacidade de interoperabilidade tecnologica e social entre os diversos sistemas envolvidos. Estudos foram desenvolvidos buscando padroes evolutivos das II, no entanto percebe-se uma lacuna no entendimento das caracteristicas dos gateways que contribuem para evolucao dinamica e complexa da IIs, a exemplo da internet. O objetivo do trabalho e, usando da teoria de projeto para complexidade dinamica (TPCD) em II, analisar o alinhamento entre as propostas de gateway, atraves de estudos de caso de gateways para internet, a um conjunto de caracteristicas das II, resultando em um melhor entendimento dessas solucoes. Por fim, o principal resultado da pesquisa indica que as solucoes de gateways para internet, por adotarem uma abordagem top-down em seu desenvolvimento, tornam-se especificas ao que foram propostas, negligenciando caracteristicas que surgem durante a evolucao da II.
  • LEYDSON BARBOSA SILVA
  • Um Ambiente de Simulação de Múltiplos Drones para Avaliação de Estratégias usando Cossimulação
  • Data: 30/08/2019
  • Hora: 14:00
  • Mostrar Resumo
  • Aplicacoes com multiplos Drones estao se tornando mais presente nas industrias, usadas em aplicacoes de defesa e nas comerciais, onde as RPAs executam suas tarefas de forma autonoma. Garantir, entretanto, que aplicacoes de multiplos Drones autonomos sejam seguros, isto e, sejam capazes de executar suas tarefas e alcancar seus objetivos, e um desafio, ja que decisoes precisam ser tomadas com uma visao bastante limitada do mundo em um ambiente hostil. A simulacao pode fornercer informacoes importantes sobre o desempenho das estrategias das missoes. Por exemplo, simulacoes podem prover informacoes sobre quais estrategias poderiam fornecer garantias para a seguranca do equipamento, tendo em vista o alto investimento necessario para criacao de um sistema com multiplos Drones. Nesse sentido, propomos um ambiente de cossimulacao de multiplos Drones para a analise de missoes, a fim de avaliar estrategias de voo diferentes. Para tornar o ambiente o mais realista possivel, introduzimos ameacas externas tais como, ventos, setores com restricoes de voo e colisoes de aeronaves. Para validar o ambiente proposto utilizamos um estudo de caso de um sistema de vigilancia aerea, onde comparamos dois tipos de estrategias de voo diferentes. O sistema capacitou a analise entre as estrategias de voo, em termos de colisoes entre Drones, consumo de energia e no desempenho das missoes. Os resultados obtidos demonstram a eficacia da ferramenta na analise das estrategias, possibilitando a criacao e avaliacao de estrategias mais efetivas.
  • LUCAS BARBOSA OLIVEIRA
  • Modelagem de Tráfego em Ambientes Hospitalares Inteligentes Utilizando uma Abordagem SDN
  • Data: 30/08/2019
  • Hora: 13:00
  • Mostrar Resumo
  • Recentemente, tem-se ocorrido uma grande evolucao dos sistemas destinados a saude conectada. Diante disto, diversos desafios estao emergindo tais como a sincronizacao e seguranca de informacoes, o estabelecimento de interoperabilidade entre dispositivos medicos hospitalares, o uso dos meios de comunicacao para transmissao das informacoes provindas dos dispositivos medicos, entre outros. Analisando este cenario, observa-se que uma grande quantidade de dispositivos medicos conectados e sistemas de TI destinados a saude estao sendo desenvolvidos e integrados para o compartilhamento de dados. Tais dispositivos e sistemas compartilham a mesma rede, podendo ser acoplados a sistemas de monitoramento e analise de dados clinicos. Em decorrencia deste compartilhamento, trafegos prioritarios de dispositivos podem ser prejudicados por congestionamentos de rede. Assim sendo, o sistema TRANSMIT (TRaffic shApiNg in SMart hospITals) propoe uma solucao que auxilie na melhoria do atendimento a pacientes em hospitais inteligentes, baseada na adocao do paradigma SDN (Software Defined Networking) e objetivando o gerenciamento de uma rede hospitalar atraves da priorizacao de trafego para dispositivos prioritarios. Esta solucao busca a observancia dos parametros de qualidade exigidos por cada servico em um ambiente de hospital inteligente. Por fim, sao apresentados os resultados coletados dos cenarios testes, onde e perceptivel a priorizacao e melhor administracao dos recursos de rede em cenario de alto trafego dados na rede. Desta maneira, justificando a implantacao do paradigma SDN em ambientes clinicos integrados.
  • JORCYANE ARAÚJO LIMA
  • UMA ABORDAGEM PARA SELEÇÃO E ALOCAÇÃO DE PESSOAS BASEADA EM PERFIS TÉCNICOS E DE PERSONALIDADES PARA PROJETOS DE SOFTWARE
  • Data: 30/08/2019
  • Hora: 09:00
  • Mostrar Resumo
  • As atividades dos projetos de desenvolvimento de software sao agrupadas em diferentes papeis funcionais, cada qual executado por um tipo de profissional da engenharia de software, que realiza diferentes atividades. Sendo assim, para cada um destes papeis sao necessarias diversas habilidades tecnicas e de personalidades especificas. Caso estes requisitos nao sejam observados durante a selecao de membros para a equipe e alocacao aos papeis, colocara o projeto de desenvolvimento de software em serio risco de fracasso, pois as pessoas selecionadas poderao nao desempenhar bem as suas atribuicoes. Porem, o processo de selecao das pessoas e a alocacao destas a papeis para a formacao da equipe e um processo complexo para ser realizado pelo gerente de projetos com base apenas em sua experiencia, pois, mesmo com um numero relativamente pequeno de pessoas e papeis, uma grande quantidade de combinacoes pode ser identificada. Assim, analisar cada opcao e inviavel e boas opcoes podem nao ser consideradas. A fim de fornecer suporte na tomada de decisao, explorando tecnicas de Engenharia de Software Baseada em Buscas, do ingles Search Based Software Engineering (SBSE), este trabalho propoe uma abordagem multiobjetiva para selecao e alocacao de pessoas tecnicamente qualificadas e psicologicamente adequadas para cada papel funcional do projeto de desenvolvimento de software. Para avaliacao da proposta, alem de uma revisao sistematica comparando a literatura existente relacionada com o tema da abordagem proposta, o trabalho apresenta resultados de tres metaheuristicas distintas capazes de lidar com os multiplos objetivos a serem otimizados. Estes algoritmos sao aplicados a dados reais coletados em um estudo de caso que revelam a eficiencia e aplicabilidade potencial da abordagem proposta.
  • JOSÉ EVERALDO DE ANDRADE JUNIOR
  • Monitoramento e Disseminação Cooperativa de Eventos Emergenciais Apoiado por Agrupamentos de Veículos
  • Data: 29/08/2019
  • Hora: 16:00
  • Mostrar Resumo
  • Eventos urbanos emergenciais ocorrem de forma aleatoria e precisam ser tratados por entidades competentes para manter o bom funcionamento das cidades. Os principais desafios para um tratamento eficiente recaem justamente na aleatoriedade no tempo ou no espaco, e na rapidez e acuracia da comunicacao da ocorrencia do evento a uma entidade responsavel, sendo este ultimo desafio agravado pelo fato desta comunicacao depender de intervencao humana. A onipresenca de veiculos em ambientes urbanos, sua capacidade de comunicacao e monitoramento, possibilitam o uso de VANETs como meio de auxilio para disseminacao e tratamento destes eventos. Assim, este trabalho propoe MINUET, um sistema de monitoramento e disseminacao de eventos urbanos, que atua em uma rede veicular nao estruturada. Ele e baseado em uma estrategia cooperativa, onde veiculos coordenam dinamicamente o monitoramento e a disseminacao de multiplos eventos em tempo real atraves de agrupamentos. Resultados no NS3 mostram o desempenho do MINUET na deteccao, monitoramento e disseminacao em tempo real de eventos em zonas urbanas.
  • JESSICA MACIEL DE CASTRO
  • Utilizando Refinamento de Políticas para Auxiliar no Gerenciamento de Dispositivos Iot em Hospitais Inteligentes
  • Data: 28/08/2019
  • Hora: 16:00
  • Mostrar Resumo
  • A implementacao da Internet das Coisas em ambientes diversos ja e uma realidade. Um desses ambientes e o Hospital Inteligente onde diversos tipos de dispositivos comecam a ser utilizados para proporcionar uma melhor experiencia para os seus usuarios, pacientes e funcionarios, utilizando da IoT para melhorar o atendimento aos pacientes e agilizar os processos internos dos hospitais. Entretanto, um obstaculo na utilizacao de sistemas IoT e a dificuldade encontrada por seus usuarios de customizar o comportamento dos dispositivos conforme suas necessidades mudem. Caso os usuarios nao atualizem o sistema, ele pode ficar defasado, ocasionando problemas criticos em hospitais. Por este motivo, este trabalho apresenta uma solucao para facilitar o gerenciamento de dispositivos IoT em hospitais inteligentes utilizando refinamento de politicas, permitindo assim que usuarios criem e gerenciem suas politicas em linguagens de programacao de alto nivel. A solucao foi implementada e testada, alcancando resultados favoraveis para um cenario hospitalar.
  • JOSÉ LAUCIANO FERREIRA DE ALMEIDA
  • Diretrizes para o Design de Jogos Sérios Educativos com Foco na Satisfação do Jogador
  • Data: 23/08/2019
  • Hora: 14:00
  • Mostrar Resumo
  • A satisfacao e geralmente abordada na avaliacao de jogos e objetiva conhecer os elementos que agradaram e motivaram o jogador. Alguns modelos foram propostos para realizar esta tarefa, como os modelos GameFlow e EGameflow, este ultimo especificamente voltado para avaliar a satisfacao em jogos educacionais. Observa-se, portanto que a avaliacao da satisfacao e uma medicao a posteriori. O presente trabalho aborda o desenvolvimento de jogos serios voltados para propositos educacionais que considerem a satisfacao na sua modelagem. Neste contexto, relaciona os modelos GameFlow e EGameflow com elementos de design de jogos para propor um conjunto de diretrizes voltadas para o design de jogos serios educativos com foco na na satisfacao do jogador. As diretrizes foram aplicadas no redesign do jogo GeoplanoPIX, posteriormente avaliado com alunos do ensino basico, e mostraram potencial na obtencao da satisfacao dos jogadores.
  • JOSÉ LAUCIANO FERREIRA DE ALMEIDA
  • Diretrizes para o Design de Jogos Sérios Educativos com Foco na Satisfação do Jogador
  • Data: 23/08/2019
  • Hora: 14:00
  • Mostrar Resumo
  • A satisfacao e geralmente abordada na avaliacao de jogos e objetiva conhecer os elementos que agradaram e motivaram o jogador. Alguns modelos foram propostos para realizar esta tarefa, como os modelos GameFlow e EGameflow, este ultimo especificamente voltado para avaliar a satisfacao em jogos educacionais. Observa-se, portanto que a avaliacao da satisfacao e uma medicao a posteriori. O presente trabalho aborda o desenvolvimento de jogos serios voltados para propositos educacionais que considerem a satisfacao na sua modelagem. Neste contexto, relaciona os modelos GameFlow e EGameflow com elementos de design de jogos para propor um conjunto de diretrizes voltadas para o design de jogos serios educativos com foco na na satisfacao do jogador. As diretrizes foram aplicadas no redesign do jogo GeoplanoPIX, posteriormente avaliado com alunos do ensino basico, e mostraram potencial na obtencao da satisfacao dos jogadores.
  • SILAS YUDI KONNO DE OLIVEIRA SANTOS
  • BlindHelper App: aplicativo móvel para acesso por pessoas com deficiência visual a sistemas multimídia com mecanismos de Realidade Aumentada
  • Data: 16/08/2019
  • Hora: 10:00
  • Mostrar Resumo
  • Os sistemas multimidia sao compostos, em sua grande maioria, por recursos visuais, como por exemplo: videos, imagens, graficos, textos e animacoes. Dentre os sistemas multimidia, existem os sistemas de visualizacao avancada cuja interface com o usuario, para interacao, manipulacao do sistema e recebimento de informacoes, usa predominantemente componentes e recursos visuais gerados computacionalmente. Sendo assim, a Pessoa com Deficiencia Visual (PDV) e prejudicada por ter impedimento ou dificuldade de interagir com esses sistemas e acessar suas informacoes. Um exemplo de sistema de visualizacao avancada e o “Obras 4D”, um sistema interativo para visualizacao de dados referentes as obras publicas sob tutela do Tribunal de Contas do Estado da Paraiba. Seu objetivo e facilitar o acesso as informacoes de obras, utilizando suas localizacoes geograficas como via de acesso inicial e oferecendo a visualizacao de suas informacoes atraves de mecanismos de Realidade Aumentada (do ingles: augmented reality – AR). Neste contexto, propomos o BlindHelper App, um aplicativo para dispositivos moveis capaz de oferecer as PDVs o acesso as informacoes contidas no sistema “Obras 4D” utilizando tecnologias presentes nos seus dispositivos moveis. Como resultado deste trabalho, o aplicativo BlindHelper App foi construido com forma de interacao do sistema baseado em movimentos da sua mao, captados pelo acelerometro contido no dispositivo movel, e recebimento de informacoes por meio de audiodescricao dos elementos multimidia contidas na aplicacao original.
  • VICTOR HUGO AZEVÊDO DA SILVA
  • Gerenciamento de Interseções para Otimização do Tráfego de Carros Autônomos
  • Data: 09/08/2019
  • Hora: 16:00
  • Mostrar Resumo
  • Intersecoes tornaram-se, devido ao rapido crescimento da populacao das cidades, um local propenso para acidentes automobilisticos, sendo tambem a principal causa de congestionamento do trafego. Este trabalho apresenta um sistema virtual capaz de gerenciar e otimizar o trafego de uma regiao em um ambiente de carros autonomos. Esta abordagem introduz restricoes que garantem a seguranca dos veiculos autonomos, de modo que eles possam usufruir das vantagens oferecidas por essa nova tecnologia, sem perda do nivel de confianca. Foi proposta a retirada de todos os semaforos e placas de sinalizacoes presentes nas intersecoes, atribuindo ao sistema a responsabilidade de gerenciar o trafego. Os resultados utilizando o simulador SUMO demonstram que o sistema foi capaz de otimizar o trafego dos veiculos nas diversas regioes utilizadas como estudo de casos.
  • JEFFERSON SILVA DE SOUZA
  • Uma abordagem baseada no caos para identificação de velocidade e possíveis falhas em motores DC sem escova por meio de sinal de acelerômetros
  • Data: 09/08/2019
  • Hora: 09:00
  • Mostrar Resumo
  • Este trabalho apresenta uma tecnica denominada Analise de Sinais baseada no Caos utilizando Densidade de Maxima (SAC-DM) para motores DC sem escovas usando o coeficiente de correlacao obtido a partir da densidade maxima do sinal de corrente. Esta tecnica demonstra o potencial para caracterizar motores com uma abordagem simples. A abordagem proposta e comparada com a tradicional Transformacao Rapida-Fourier e a analise classica do caos, com base no coeficiente de correlacao obtido a partir do comprimento a meia altura da funcao de correlacao. As experiencias demonstram resultados semelhantes, mas mais simples e mais rapidos do que as duas abordagens comparadas.
  • MAX ANDRÉ DE AZEVEDO SILVA
  • Método de Avaliação de Jogos Educacionais Através de Heurísticas (AHJED)
  • Data: 31/07/2019
  • Hora: 16:00
  • Mostrar Resumo
  • O processo de criacao de jogos educacionais digitais requer atencao para os aspectos tecnicos e pedagogicos. Tais aspectos podem ser o fator decisivo entre o sucesso ou insucesso do jogo. Buscando garantir uma maior qualidade desses aspectos, e interessante utilizar a avaliacao de jogos educacionais. Um dos metodos fortemente utilizados para esse tipo de avaliacao, e o metodo baseado em heuristica. Esse metodo tem se mostrado interessante por obter baixo custo e flexibilidade. Existem propostas de heuristicas para avaliacao de jogos educacionais, porem essas propostas demonstram alguns pontos de possiveis melhorias. Dessa forma, esse trabalho apresenta um modelo de avaliacao heuristica para jogos digitais educacionais, elaborado atraves da combinacao de modelos propostos na literatura, onde esse tem como objetivo avaliar os aspectos tecnicos e pedagogicos dos jogos digitais educacionais. Para isso, primeiramente foi realizado um mapeamento sistematico sobre avaliacao de jogos digitais educacionais, posteriormente foi realizada uma comparacao entre os trabalhos encontrados na literatura, com o objetivo de identificar os metodos e tecnicas mais presentes. Logo apos foi realizado um experimento com uma tecnica de avaliacao heuristica, posteriormente foi proposto um novo conjunto de heuristica esse conjunto foi concebido atraves da combinacao de conjuntos existentes na literatura. E, por fim, foram realizadas validacoes do conjunto proposto neste trabalho.
  • EMERSON BRASIL GOMES
  • Avaliação Experimental da Qualidade de Enlace de Redes de Sensores sem Fio Industriais em Instalações ao Ar Livre
  • Data: 22/07/2019
  • Hora: 10:00
  • Mostrar Resumo
  • As Redes de Sensores Sem Fio (RSSF) tem como objetivo principal coletar informacoes sensoriais em uma determinada area, a partir de dispositivos sensores (nos) que tem a capacidade de adquirir, processar e comunicar dados. As RSSF sao aplicaveis nos mais variados dominios, incluindo a automacao industrial, onde podem ser utilizadas no monitoramento e controle de plantas industriais. Neste campo de aplicacao especifico existem as RSSF Industriais (RSSFI), que buscam atender a requisitos especificos dos sistemas industriais, tais como comunicacao com alta confiabilidade e baixa latencia, que podem ser afetados pelas carateristicas inerentes a comunicacao sem fio. Os sinais eletromagneticos podem ser atenuados, obstruidos ou propagados por multiplos caminhos, gracas a equipamentos e materiais metalicos presentes em abundancia em ambientes industriais. Este trabalho busca estudar experimentalmente as RSSFI instaladas em ambientes industrias ao ar livre. A primeira parte do trabalho consiste na caracterizacao de duas plantas industriais (uma predominantemente estatica e outra predominantemente dinamica) em relacao a qualidade do enlace de radio em multiplos canais. Outro objetivo do atual trabalho e validar, por meio de experimento em uma terceira planta industrial ao ar livre, um estimador de qualidade de enlace (Link Quality Estimator, LQE) e tambem um dispositivo (no sensor LQE), que estima a qualidade de enlaces em tempo real, ambos propostos por Gomes, em 2017. Para garantir uma boa qualidade de servico nas RSSFI, os resultados obtidos corroboram a importancia do uso de protocolos adaptativos que selecionem os canais apropriados para cada enlace, em virtude das variacoes espaciais e temporais, que afetam a qualidade dos canais.
  • WILLIBY DA SILVA FEREIRA
  • Mapeamento Ontológico com Aplicação no Domínio Biomédico
  • Data: 10/06/2019
  • Hora: 10:00
  • Mostrar Resumo
  • Introducao: A area da saude produz diariamente um grande volume de dados que deve ser armazenado de maneira eficiente. Para que as informacoes produzidas sejam disponibilizadas e preciso organiza-las. Nesse sentido, as tecnologias voltadas para coleta, armazenamento e manipulacao de dados vem evoluindo por meio de tecnicas, metodos e ferramentas computacionais automatizadas. Uma das formas mais utilizadas e conhecida como ontologia, a qual permite a representacao de um conjunto de conceitos e retrata a semantica das informacoes. Contudo, o uso completo de ontologias em sistemas computacionais ainda e restrito. Assim, considerando essa restricao e sabendo que os bancos de dados relacionais alem de fornecer escalabilidade para consultas e raciocinio sobre o conhecimento fornecido pela ontologia, fornecem beneficios como robustez, desempenho, maturidade, disponibilidade e confiabilidade, uma alternativa que tem surgido e o mapeamento ontologico. Isto e, desenvolver mecanismos no banco de dados relacionais que executem funcoes proximas a de ontologias e ainda resguardem os dados. Nesse breve contexto, observou-se a necessidade de desenvolver uma abordagem para mapear uma ontologia do dominio biomedico para um banco de dados relacional de modo que o mesmo auxiliasse o processo decisorio no diagnostico da doenca renal cronica. Objetivos: O objetivo geral desta proposta e apresentar uma abordagem para mapeamento de ontologia no dominio biomedico para banco de dados relacionais com suporte a decisao clinica e enfase no processo de diagnostico da DRC. Metodos: Para desenvolver esse estudo foram definidas etapas metodologicas que envolvem a construcao do conhecimento, a modelagem dos dados, a execucao do mapeamento e a validacao da tecnica desenvolvida. Inicialmente foi realizado o levantamento bibliografico para refinar o conhecimento necessario e compreender o objeto em estudo. Em seguida foram elaboradas as regras de mapeamento e executado as etapas da modelagem de dados, resultando no mapeamento ontologico. Resultados: A principal contribuicao apresentada e o DB-Ontology, um banco de dados relacional eficiente para suporte a decisao clinica no processo de diagnostico da DRC. Essa abordagem permite a persistencia de dados no banco e preserva a semantica da ontologia de dominio biomedico. O DB-Ontology e resultado do mapeamento ontologico proposto. Conclusao: Com a execucao das etapas definidas na metodologia, foi possivel mapear as principais classes da OntoDecideDRC para o DB-Ontology. Alem disso, foi possivel compreender a realidade na Unidade de Saude da Familia (USF), de modo que, tal realidade fosse adaptada a hierarquia da ontologia e consequentemente refletisse no banco de dados relacional que foi desenvolvido. Embora a literatura seja carente de estudos de mapeamento ontologico com uso de stored procedures, foi possivel desenvolver uma abordagem eficiente e capaz de dar suporte a decisao clinica, bem como, adapta-la a outros dominios com um grau maior de esforco.
  • HÍCARO FELIPE BRASILEIRO DE MACEDO SILVA
  • Um modelo de adaptação para Serious Games Educacionais baseado na avaliação de habilidades do jogador
  • Data: 26/04/2019
  • Hora: 09:00
  • Mostrar Resumo
  • A Teoria do Espaco de Conhecimento Baseado em Competencia (do ingles Competence- based Knowledge Space Theory, CbKST) possibilita a avaliacao das habilidades do jogador atraves da observacao de sua performance em Serious Games Educacionais (SGE). Dadas as informacoes sobre as habilidades de jogador, um SGE pode se adaptar as capacidades de cada pessoa. Embora seu uso seja pertinente no processo de adaptacao, a concepcao do CbKST tem como escopo a avaliacao de habilidades cognitivas do individuo. Esse aspecto e limitante pois desconsidera fatores educacionais como habilidades afetivas ou ate psicomotoras do jogador. Ademais, modelos de adaptacao para SGE tem seu foco na escolha e apresentacao de fases tendo em vista a adequacao as habilidades do individuo. Nesse sentido, seus criterios nao explicitam heuristicas que buscam a otimizar a experiencia do jogador, tais como ajuste de dificuldade e progressao do jogo. Dessa forma, o presente trabalho tem como objetivo a proposta de um modelo de adaptacao para SGE capaz de avaliar as habilidades cognitivas, afetivas e psicomotoras e a partir delas realizar o sequenciamento de fases do jogo, tendo em mente a manutencao da dificuldade do jogo . O modelo proposto utiliza a Taxonomia de Bloom juntamente com a hierarquia de Dave do dominio psicomotor como fundamentacao para a modelagem de habilidades e propoe um metodo proprio para avaliacao das habilidades do jogador. Para validacao do modelo foi feita a sua aplicacao no Caixa de Pandora, um SGE que lida com aspectos cognitivos e afetivos atraves do tema violencia domestica contra a mulher.
  • JOSIMAR TAVARES DE ASSUMPÇÃO FILHO
  • Uma técnica de detecção de ataque DDoS baseada no Caos Utilizando Densidade de Máximos
  • Data: 28/02/2019
  • Hora: 15:00
  • Mostrar Resumo
  • Ataques DDoS (Distributed Denial of Service) sao um dos maiores problemas que afetam a estabilidade da Internet, e uma deteccao precoce do ataque ainda e um fator importante para medidas de mitigacao. Neste trabalho, apresentamos um algoritmo que analisa e detecta ataques DDoS no fluxo de dado de rede. Ele usa a tecnica Density of Maxima, baseada na Teoria do Caos. Os experimentos foram realizados usando dados contendo trafego sintetico criado com ferramenta JMeter e dados reais da Copa do Mundo de 1998, os conjuntos de dados do CAIDA 2007 e DARPA 2009. Todos os experimentos demonstraram a eficacia da tecnica em identificar o momento em que os ataques ocorreram, bem como a sua aptidao para ser usada junto com um algoritmo de deteccao de DDoS.
  • ARIANE VENTURA DE SOUSA FALCÃO
  • FUZDETECT: SISTEMA DE DETECÇÃO E CLASSIFICAÇÃO DE ATAQUES DE NEGAÇÃO DE SERVIÇO
  • Data: 25/02/2019
  • Hora: 11:00
  • Mostrar Resumo
  • Com o aumento da quantidade de dispositivos conectados a Internet, a rapidez, assim como, o dinamismo na troca de informacoes foi promovido, junto com uma maior interatividade entre as partes da comunicacao. Embora tal aumento tenha trazido convergencia imediata na troca de informacoes, um dos grandes efeitos colaterais acarretados por essa nova visao do modelo da Internet, conhecido como Internet das Coisas, e a facilidade na perpetracao do acesso destes dispositivos, uma vez que, os mesmos, em grande maioria, nao apresentam aparatos de seguranca essenciais em sua implementacao. Ocasionando assim, em um cres- cimento discrepante na magnitude de ataques ja existentes, como os Ataques de Negacao de Servico Distribuidos. Ataques de Negacao de Servico variam de acordo com a sua natureza, entretanto, estes possuem em comum o objetivo de impedir o alvo de atender novas solici- tacoes e similaridade com o trafego legitimo. Diante destes desafios, este trabalho propoe o FuzDetect. O FuzDetect nao so alerta quando um ataque ocorre, mas tambem o classifica. O FuzDetect se inicia por meio da coleta de dados em uma Rede Definida por Software, de forma leve, sem a necessidade da inspecao de pacotes tradicionais. Em seguida, tais meta- dados serao repassados para uma base de dados, a fim de torna-los persistentes. Na etapa final, um sistema de classificacao, implementado com logica fuzzy, ira analisar os ultimos metadados de fluxos coletados e entao os classificara em subtipos de ataque ou em trafego legitimo. Tal sistema e capaz de se adaptar ao trafego da rede de forma dinamica, com o apoio da Otimizacao por Enxame de Particulas. Os resultados gerados foram extraidos a partir de testes em redes com topologias e configuracoes de trafego diferentes, os mesmos tambem foram gerados com e sem o uso da otimizacao adaptativa via Otimizacao por En- xame de Particulas, demonstrando assim, a eficiencia da proposta, em que, nos casos em que a otimizacao foi usada, os trafegos, posteriormente classificados, apresentaram a saida aproximada correta, em todos os casos.
  • DENYS ALEXANDRE BARBOZA DA SILVA
  • DICOMFLOWACCESS: CONTROLE DE ACESSO PARA COMPARTILHAMENTO DE IMAGENS MÉDICAS EM AMBIENTE ABERTO E DISTRIBUÍDO
  • Data: 31/01/2019
  • Hora: 14:00
  • Mostrar Resumo
  • A necessidade da formacao de associacoes entre entidades das mais diversas areas de atuacao para compartilhamento de informacoes torna-se cada vez mais comum. Essas associacoes podem nao possuir longa duracao, normalmente sao estabelecidas para uma atividade pontual, e requerem facil configuracao. Assim tambem acontece na telerradiologia, vertente da telemedicina que utiliza a tecnologia da informacao para emissao de diagnostico a distancia atraves do compartilhamento de imagens medicas. As solucoes atuais para pratica da telerradiologia estao bem consolidadas em um ambiente de rede local ou que esteja sobre um mesmo dominio de seguranca. Porem, para a pratica de telerradiologia em um ambiente global essas solucoes ja estabelecidas passam por uma serie de limitacoes e necessitam de evolucao. O controle de acesso para o compartilhamento de informacoes em ambiente aberto e distribuido e uma dessas evolucoes. Para uma comunicacao no contexto global e inevitavel utilizar a infraestrutura da Internet, uma infraestrutura aberta, amplamente distribuida, descentralizada e insegura. Os mecanismos atuais de controle de acesso mostraram-se limitados para atuarem em uma infraestrutura da informacao com o dinamismo e a complexidade da Internet. Desta forma, o objetivo deste trabalho foi elaborar o DicomFlowAccess (DFA), um modelo de controle de acesso assincrono, que atua em ambiente aberto e distribuido, e que faz uso de certificados digitais e comunicacao criptografada para apoiar o compartilhamento de imagens medicas entre entidades de saude que queiram associar-se para a realizacao de atividades, como a solicitacao e emissao de laudo a distancia, armazenamento remoto ou processamento de imagens medicas. O DicomFlow, que e um gateway projetado para auxiliar o compartilhamento de imagens medicas de forma assincrona e descentralizada foi a infraestrutura escolhida para implementar o DFA. Todavia, existem limitacoes que diminuem a capacidade de escalabilidade da solucao, como a base de dados ser centralizada. O DFA ira substituir a forma de como o DicomFlow implementa o controle de acesso durante compartilhamento de imagens medicas.
  • EDUARDO FARIAS BRINDS-LEY FOX
  • DETECTANDO ATAQUES SYN-FLOODING EM REDES DEFINIDAS POR SOFTWARE
  • Data: 31/01/2019
  • Hora: 10:00
  • Mostrar Resumo
  • Com a quantidade de informacoes disponiveis na Internet, curiosos podem facilmente reali- zar um ataque DoS apenas seguindo um tutorial disponivel, sem precisar ter muito conheci- mento computacional para esta acao. O Syn-flooding e um ataque simples de ser realizado, porem tem consequencias desastrosas, podendo impossibilitar o acesso a um site ou ou- tros recursos em uma rede. Em Redes Definidas por Software(SDN), este tipo de ataque pode parar uma rede por completo, a partir da negacao do servico do proprio controlador. Este trabalho propoe uma deteccao de ataques Syn-flooding, em uma rede SDN, atraves da medicao da variacao da quantidade de fluxos em um intervalo de tempo pre-estabelecido, auxiliando ao administador de rede a realizar acoes corretivas e preventidas a partir da de- teccao do ataque. Para a realizacao da proposta, foi desenvolvida uma ferramenta chamada FindFlows que exibe uma lista de todos os hosts ativos em uma rede SDN, informando a quantidade de fluxos de cada host em intervalos de tempo diferentes, a variacao dos fluxos nesses intervalos e, por fim, se houve ou nao ataque Syn-flooding.
  • JOANACELE BANDEIRA DE MELO
  • Sistema com Baixo Custo de Captura de Imagens Aéreas e Detecção de Anomalias em Plantações em Tempo Real
  • Orientador : ALISSON VASCONCELOS DE BRITO
  • Data: 31/01/2019
  • Hora: 10:00
  • Mostrar Resumo
  • Este trabalho apresenta um sistema com baixo custo para captura de imagens aereas e deteccao de anomalias em tempo real. Um VANT (Veiculo Aereo Nao Tripulado) de asa fixa totalmente autonomo foi desenvolvido para o sobrevoo nas plantacoes. Como validacao do sistema, dois estudos de caso sao apresentados. Os dois acontecem em plantacoes de cana-de-acucar proximos ao litoral paraibano. Sendo o primeiro em um engenho que produz cachaca de alambique e o segundo em uma plantacao em ambiente controlado. O IVDN (Indice de Vegetacao por Diferenca Normalizada) e utilizado como apoio na deteccao das anomalias. Alem do vigor do plantio, elementos como insuficiencia hidrica e solo exposto, foram identificadas pelo sistema. Foi constatado que e possivel detectar regioes de interesse durante o voo, e alem disso pode-se ter uma previsao sobre a produtividade da plantacao com base no IVDN.
  • ANA PATRÍCIA DE SOUSA
  • FRAMEWORK PARA SUPORTE À EVOLUÇÃO DE ONTOLOGIAS BIOMÉDICAS
  • Data: 31/01/2019
  • Hora: 08:00
  • Mostrar Resumo
  • As Ontologias Biomedicas crescem continuamente e por isso necessitam ser refinadas ao longo do seu ciclo de vida. Nas Ontologias Biomedicas, pequenas alteracoes podem causar efeitos inesperados em grandes partes da Ontologia, isso pode ser explicado pela sua alta complexidade e pelo fato de serem, em geral, maiores que as Ontologias de outros dominios. O processo de refinamento para que as Ontologias sejam adaptadas as mudancas ocorridas em suas fontes de conhecimento se chama evolucao de Ontologias. Nesse contexto, no presente trabalho foi construido um framework conceitual para auxiliar desenvolvedores de Ontologias Biomedicas durante seu processo de evolucao. Seu objetivo principal e oferecer sugestoes validadas de atividades e ferramentas para apoiar a evolucao de Ontologias Biomedicas. O framework definido esta dividido em 5 fases compreensivas e bem definidas denominadas Planejamento da Evolucao, Implementacao de Mudancas, Deteccao de Mudancas, Tratamento de Inconsistencias e Auditoria de Mudancas. O framework foi validado por meio de um estudo de caso onde o mesmo foi aplicado a tres versoes de uma Ontologia sobre a Doenca Renal Cronica (DRC) submetida a evolucao em tres perspectivas baseadas em tres motivos de evolucao: a mudanca do foco da Ontologia, mudancas para refletir alteracoes em suas diretrizes de dominio e mudancas relativas a terminologia de referencia da Ontologia. A consistencia da Ontologia utilizada no estudo de caso foi verificada por meio da aplicacao de consultas SPARQL baseadas em Questoes de Competencia pre-definidas pelo especialista do dominio da Ontologia. O framework desenvolvido possui como principal beneficio o provimento de recursos para apoiar todo o processo de evolucao, desde a representacao da mudanca ate a verificacao da conformidade da Ontologia evoluida com o plano de evolucao. Com base nos resultados dos experimentos realizados pode-se concluir que o framework permitiu manter organizado e compreensivo o processo evolutivo da Ontologia utilizada. A organizacao e compreensao fornecida pelo framework sao importantes pois facilitam a recuperacao de informacoes caso haja a necessidade de refazer alguma mudanca. Os relatorios fornecidos como saida das atividades que compoem os subprocessos do framework, alem de subsidiar a realizacao das atividades as quais sao dados como entradas, podem ser utilizados como ferramentas de predicao de mudancas, por meio das quais as mudancas recorrentes podem ser identificadas, o que pode ajudar na definicao previa de estrategias de aplicacao de mudancas bem como de correcao de erros identificados durante a validacao da Ontologia.
  • MARIA TATIANE DE SOUZA BRITO
  • UM PLUGIN DO TIPO REPORT PARA A IDENTIFICAÇÃO DO RISCO DE EVASÃO NA EDUCAÇÃO SUPERIOR À DISTÂNCIA QUE USA TÉCNICAS DE VISUALIZAÇÃO DE DADOS
  • Data: 17/01/2019
  • Hora: 10:00
  • Mostrar Resumo
  • Este trabalho pertence ao campo de pesquisa educacional conhecido como Learning Analytics e tem como objetivo propiciar um sistema que apresente alunos em situacao de risco de evasao no Ambiente Virtual de Aprendizagem (AVA) Moodle. O sistema utiliza indicadores sociais, cognitivos e comportamentais, criados com base em dados do AVA, e os exibe por meio de uma ferramenta de visualizacao de dados. Os AVAs geram relatorios e logs sobre as atividades dos alunos, todavia eles geralmente sao de dificil compreensao para tutores, professores e gestores educacionais. Assim, nao permitem a identificacao de problemas de evasao de forma mais objetiva. Diante disso, acredita-se que a utilizacao de uma solucao que colete dados de indicadores referentes aos acessos, as interacoes e as notas dos alunos num AVA, e os apresente por meio de infograficos, pode ajudar professores, tutores e gestores a identificar alunos que possam estar em vias de abandonarem um curso a distancia. Concebeu-se e se implementou um plugin do tipo report (relatorio) para o AVA Moodle contendo funcionalidades de filtros, envio de notificacoes e graficos interativos gerados pela ferramenta Google Charts. Para avaliar o plugin foram feitas analises qualitativas atraves da realizacao de um grupo focal com professores, tutores e gestores de um curso a distancia. Concluiu-se que o plugin proporciona uma melhoria na percepcao desses profissionais sobre alunos que estao em risco de evasao. Considerou-se que o desenvolvimento de ferramentas de Learning Analytics necessita priorizar dados estrategicos de alunos, tais como dados de acessos, de interacoes e suas notas em disciplinas, pois estes podem auxiliar profissionais na identificacao do risco de evasao de alunos.
  • RENATO RICARDO DE ABREU
  • Um ambiente para teste e diagnóstico de drone usando Cossimulação
  • Data: 16/01/2019
  • Hora: 10:00
  • Mostrar Resumo
  • Veículos aéreos não tripulados (VANT), também conhecidos como drones, são muito importantes para realizar voos sem a necessidade de um piloto no veículo, por isso são programados para executar missões de voos. Entretanto, eles necessitam ser confiáveis para executá-las. Então, com a realização de diagnósticos do estado do VANT, é possível prever falhas durante ou antes da execução do voo.O objetivo deste trabalho é apresentar um ambiente de teste, para analisar e avaliar drones durante o voo em ambiente fechado. Para este propósito, o framework Ptolemy II foi estendido para comunicação com drones reais usando o HLA (High Level Architecture). O ambiente de teste apresentado é extensível para outras rotinas, e pronto pra integração com outras ferramentas de simulação e análise. Para testar o ambiente foram realizados dois experimentos de detecção de falhas, com um total de 20 voos realizados para cada um deles. Destes 20 voos, 80% foram utilizados para treinar um algoritmo de árvore de decisão, e os outros 20% voos para testar o algoritmo em que uma das hélices possuía anomalia. A taxa de acerto ou detecção de falha foi de 70% para o primeiro experimento e de 90% para o segundo experimento.
2018
Descrição
  • HÁLAMO GIULIAN REIS DE ANDRADE
  • Uma abordagem para geração de imagens baseada no uso de GPU e redes neurais artificiais
  • Data: 14/12/2018
  • Hora: 16:30
  • Mostrar Resumo
  • Dependendo do tipo e da complexidade de um projeto de sistema, algumas tarefas podem demandar muitos recursos computacionais. Por exemplo, no processo de verificação funcional de um projeto de visão computacional, comumente é necessário um esforço considerável. Muitas vezes, mesmo com todos os custos envolvidos, a confiabilidade do projeto não pode ser negligenciada. Mas, para tentar balancear essas forças algumas estratégias podem ser aplicadas, como o uso de conjuntos de imagens para realizar a verificação estrategicamente. Assim, o presente trabalho propõe uma metodologia para geração de imagens, a fim de ampliar um conjunto de imagens inicial. A proposta a ser apresentada foi projetada de forma genérica o suficiente para trabalhar com vários tipos de imagens e também permitir criar um conjunto de imagens a partir de imagens iniciais. A geração de imagens consiste basicamente em duas formas: geração por deformação e geração por rede neural. Como prova de conceito, foram realizados experimentos com a geração de imagens de dígitos manuscritos. Para executar este processo de forma eficiente, foi projetado com CUDA e bibliotecas otimizadas para GPU com módulos específicos do TensorFlow. Ao final, a partir dos resultados obtidos é possível verificar se o processo é viável e mensurar o quanto a GPU otimizou o desempenho em comparação com uma versão não paralela.
  • RANIERE FERNANDES DE MEDEIROS
  • Um Estudo sobre a Eficiência dos compiladores da Linguagem GO com o Auxílio de Algoritmos Genéticos
  • Data: 12/12/2018
  • Hora: 16:00
  • Mostrar Resumo
  • A linguagem Go e uma das linguagens mais novas da atualidade com um crescente aumento de popularidade na industria de software. Ela e definida por uma especificacao e implementada por dois compiladores com propostas diferentes para assegurar que a especificacao esteja correta e completa. O compilador gc foca na compilacao rapida e poucas otimizacoes enquanto que o gccgo foca na utilizacao das otimizacoes do GCC sem se preocupar com o tempo gasto na compilacao. Este trabalho propoe um estudo com objetivo de construir um algoritmo genetico que auxilie na identificacao de situacoes em que o gccgo possa ser mais performatico que o Go Compiler. Resultados mostram que o Go Compiler e em media 24,7 vezes mais performatico no tempo de execucao e com tamanho de executavel em media de 33,86 vezes maior que o executavel gerado no gccgo utilizando um subconjunto de opcoes de otimizacao.
  • JOÃO MARTINS DE OLIVEIRA NETO
  • VideoLib: Um middleware escalável para o desenvolvimento de aplicações multimídia de tempo real
  • Data: 30/08/2018
  • Hora: 16:00
  • Mostrar Resumo
  • Nos ultimos anos, tem-se observado um aumento na oferta e demanda de aplicacoes baseadas na disseminacao de video pela internet. Com a popularizacao dessas tecnologias, outras areas do conhecimento comecaram a utilizar suas funcionalidades, surgindo assim ambientes colaborativos que utilizam o video como meio principal na troca de informacao. De videoconferencias ate transmissoes educacionais voltadas para a telemedicina, as etapas de configuracao e implantacao dessas aplicacoes costumam tomar muito tempo, alem de comumente limitarem o numero de participantes em uma mesma sessao. Este trabalho propoe uma arquitetura escalavel e um middleware que a utiliza que permitem o rapido desenvolvimento e implantacao de aplicacoes de compartilhamento de video em tempo real. Ele possui etapas de implantacao mais simples que solucoes tradicionais e suporta um numero grande de usuarios produzindo e consumindo videos simultaneamente.
  • JONATHAN LINCOLN GANDHI ANDRADE PIRES BRILHANTE
  • Uma Abordagem para Construção de Microsserviços Reativos Baseada em Filas Assíncronas
  • Data: 30/08/2018
  • Hora: 14:30
  • Mostrar Resumo
  • Atualmente, vivemos a consolidacao da globalizacao, na qual a grande maioria das corporacoes atua com servicos fornecidos atraves da internet. Nestes, nao apenas o acesso, mas tambem o provisionamento de recursos fisicos, e feito de forma distribuida (na nuvem, por exemplo). Ainda que lentamente, a atividade de implementacao e as estrategias de implantacao comecam a acompanhar tais tendencias. Para alcancar um provisionamento dinamico e escalavel em grandes aplicacoes, emerge uma nova abordagem chamada de Microsservicos (MS). No entanto, as arquiteturas de MS estao em seu inicio, sendo ainda mais um conceito do que um padrao de design completamente maduro. Um dos topicos mais dificeis nesta abordagem esta em como migrar ou desenvolver adequadamente um unico microsservico em termos de escopo, eficiencia e confiabilidade. Nesse sentido, este trabalho propoe um novo modelo de arquitetura baseado em padroes de alto nivel da programacao reativa para estruturar internamente um microsservico. Este novo modelo de microsservico e coordenado por filas assincronas, o que permite preservar a compatibilidade com a maioria dos componentes monoliticos e fornecer um processo de encapsulamento para permitir a sua continuidade. Um estudo comparativo entre a abordagem padrao e a arquitetura proposta foi realizado a fim de mensurar os impactos da estrategia proposta em aspectos chave do servico, como resiliencia, elasticidade e desempenho.
  • HERSON HERACLES BARRETO E DAMASCENO
  • DICOMAddress: modelo distribuído de endereçamento de imagens para uma infraestrutura de informação telerradiológica.
  • Data: 29/08/2018
  • Hora: 10:00
  • Mostrar Resumo
  • E sabido que a utilizacao da telerradiologia esta cada vez mais presente em hospitais e clinicas e que estudos sao localizados entre eles via URLs. E importante salientar que estes estudos precisam estar disponiveis por varios anos (decadas) e tais URLs devem permitir o acesso a eles no futuro, mesmo que a localizacao efetiva dos estudos tenha sido mudada. Este trabalho propoe um modelo de enderecamento de estudos (exames) de imagens medicas para uma infraestrutura de informacao telerradiologica. Utiliza o protocolo Named Data Networking (NDN), que tem como premissa basica a nomeacao de objetos para sua descoberta e recuperacao, ou seja, o enderecamento deixa de ser baseado em localizacao e passa a ser apoiado no nome dado a cada objeto. O objetivo deste trabalho e propor o DICOMAddress, uma camada que faz o elo entre o DICOMFlow e a implementacao do NDN, o NDN Forwarder Daemon, para a localizacao de objetos trafegados sem modificar o fluxo de trabalho. Ele pretende ser incorporado ao protocolo de distribuicao de estudos medicos DICOMFlow, que e assincrono, distribuido e utiliza URLs para a localizacao de estudos. Este modelo nao pretende mudar a forma de transferencia de imagens, e sim tem o objetivo de nomear estes exames para que possa gerar uma URL valida para a transferencia destes. Para a validacao do modelo, foi criado um prototipo onde foram efetuados experimentos em ambiente simulado a fim da validacao do modelo proposto. Concluiu-se que o modelo proposto atende as necessidades do DICOMFlow e obteve exito ao retornar a URL com a localizacao das imagens requisitadas.
  • CARLOS ALBERTO DE SOUZA
  • UMA METODOLOGIA PARA CONSTRUÇÃO DE REDES BAYESIANAS COM BASE EM ONTOLOGIAS DE DOMÍNIO NA ÁREA DA SAÚDE PARA SUPORTE À DECISÃO CLÍNICA
  • Data: 27/08/2018
  • Hora: 16:00
  • Mostrar Resumo
  • Por meio da uniao de duas abordagens da Inteligencia Artificial, Representacao do Conhecimento por meio de ontologias, e o tratamento de informacoes incompletas por meio do uso de Redes Bayesianas (RBs), este trabalho possui como objetivo criar uma metodologia para a construcao de RBs com base em ontologias de dominio da area da saude, com o intuito de fornecer suporte a decisao clinica. Para avaliar a metodologia criada, esta foi aplicada a uma ontologia do dominio da Nefrologia, mais especificamente sobre a Doenca Renal Cronica (DRC), a partir da qual foi construida uma RB. Para a obtencao das probabilidades da rede gerada foram utilizados casos clinicos reais de uma base de dados de pacientes do Hospital Universitario Lauro Wanderley no Estado da Paraiba (HU). Para tal, foram utilizadas tecnicas como: especificacao direta de probabilidade, probabilidade marginal e probabilidade condicional. Desta forma foi feita a construcao da tabela de probabilidade dos nos da RB. Diante dos resultados obtidos com a avaliacao experimental, onde foi aplicada da metodologia definida neste trabalho, foi possivel observar a criacao de novos conhecimentos a partir de conhecimentos preexistentes. A rede gerada possibilitou ainda a extracao de conhecimento probabilistico de uma ontologia pelo uso da RB, possibilitando a obtencao de conhecimentos nao fornecidos pela ontologia devido a informacoes inexistentes e/ou incertas.
  • JURACY REGIS DE LUCENA NETO
  • DICOMStudio: Plataforma Multidomínio para a Telerradiologia
  • Data: 27/08/2018
  • Hora: 14:30
  • Mostrar Resumo
  • A telerradiologia permite a recuperacao de exames de imagens medicas em uma localidade e transmiti-los a distancia para fins de diagnostico. Entretanto, as formas de integracao do workflow da telerradiologia possuem limitacoes tecnologicas e sociais, dificultando a formacao de uma plataforma de comunicacao comum entre entidades e medicos. O objetivo deste trabalho e propor o DICOMStudio, uma plataforma multidominio, aberta, assincrona e flexivel para a telerradiologia. Para isso, projetou-se um modelo arquitetural com base no DICOMFlow (uma infraestrutura assincrona, assimetrica e descentralizada para a pratica da telerradiologia) e construiu-se um aplicativo para transmissao de laudos pelos medicos e controle das informacoes pela clinica. Desta forma, estao sendo realizados testes, em carater preliminar, para avaliar a viabilidade tecnica e operacional da plataforma. As simulacoes ocorrem com o auxilio de um medico radiologista e uma clinica real. A plataforma DICOMStudio proporciona a integracao do workflow radiologico, integrando medicos radiologistas e clinicas, contornando uma serie de limitacoes tecnicas e sociais.
  • RENAN SOARES DE ANDRADE
  • AnyLanguage-To-Libras: Avaliação de um Serviço de Tradução Automática de Várias Línguas Orais para Língua Brasileira de Sinais
  • Orientador : TIAGO MARITAN UGULINO DE ARAUJO
  • Data: 27/08/2018
  • Hora: 10:00
  • Mostrar Resumo
  • Pessoas surdas comunicam-se naturalmente atraves de linguas gestuais, denominadas linguas de sinais (LS). Em virtude disso, eles possuem dificuldades para compreender informacoes na lingua oral de seu pais, seja escrita ou falada. Como consequencia disso, o acesso a informacoes em linguas estrangeiras e uma tarefa ainda mais complicada. Entre as abordagens para solucao do problema, uma das mais promissoras consiste no uso de tradutores automaticos de conteudos escritos ou falados para linguas de sinais, atraves de um avatar 3D. No entanto, grande parte dessas traducoes automaticas sao focadas em traduzir uma lingua oral de entrada em uma lingua de sinais especifica. Para expandir o numero de linguas orais em que os surdos brasileiros podem ter acesso ao conteudo, o presente trabalho investiga o uso de mecanismos de traducao previa text-to-text e text-to-gloss para oferta de um servico para traducao automatica de conteudos digitais (texto, audio ou video, por exemplo) em varias linguas orais para Lingua Brasileira de Sinais (LIBRAS). Para validar a solucao proposta, um prototipo, utilizando a Suite VLibras, foi construido. Um conjunto de testes computacionais e com usuarios foi realizado para verificar se a solucao proposta possibilita uma compreensao adequada ao conteudo em linguas estrangeiras
  • CARLOS MAGNO DE OLIVEIRA ARAUJO
  • UM MODELO DE OTIMIZAÇÃO PARA O PROBLEMA DE ALOCAÇÃO DE ROTA E ESPECTRO EM REDES ÓPTICAS ELÁSTICAS
  • Data: 30/07/2018
  • Hora: 14:30
  • Mostrar Resumo
  • As redes opticas elasticas surgiram como uma alternativa as tradicionais redes opticas WDM, em que o espectro optico e organizado em comprimentos de onda estaticos. Tecnologias recentes permitiram uma nova maneira de usar o espectro optico, dividindo-o em faixas subportadoras de baixa taxa de transmissao que admitem sobreposicao por ortogonalidade (OFDM). Essa nova abordagem levou a necessidade de algoritmos capazes de lidar com a exibilidade das redes opticas elasticas. O problema RSA, provado ser NP-dificil, visa a utilizac~ao e ciente do espectro optico no atendimento de demandas de trafego nesse tipo de rede. Este trabalho propoe um novo modelo de programacao linear inteira baseada em fluxos com multiplas comodidades e um algoritmo heuristico para uma versao do problema RSA. Resultados mostram que ambas as abordagens apresentaram bom desempenho quando comparadas a principal abordagem na literatura pata o problema tratado.
  • MAYRTON DIAS DE QUEIROZ
  • SmartSubway: Um Sistema Colaborativo para Apoiar o Estudo da Eficiência Energética em Trens Urbanos no Contexto de Cidades Inteligentes
  • Data: 30/07/2018
  • Hora: 08:00
  • Mostrar Resumo
  • Com o aumento populacional torna-se cada vez mais necessario o desenvolvimento de solucoes que reduzam os impactos gerados pelo aumento no consumo de recursos naturais. A adocao dos transportes eletricos, como trens urbanos, e uma alternativa para a diminuicao de gases poluentes na atmosfera e a reducao na ocupacao do espaco urbano. No entanto, com a utilizacao de trens eletricos surge o problema do gasto energetico, que precisa de solucoes sustentaveis. Esse trabalho tem como objetivo criar um metodo generico para apoiar especialistas de forma colaborativa, na busca de um perfil de velocidade (do ingles, speed profile) que reduza gastos energeticos. Esta abordagem e baseada nos Algoritmos Geneticos da Inteligencia Artificial, onde os especialistas podem inserir informacoes sobre o dominio, colaborando entre si, e de forma que se possa obter vantagens reais com o uso dessa conhecida e comprovadamente eficiente meta heuristica usada para problemas de otimizacao. A fim de obter uma prova de conceito, foi desenvolvido um sistema colaborativo, denominado SmartSubway. Para validacao do sistema e considerado um estudo de caso onde sao capturados dados referentes ao trajeto de um trem, e analises sao realizadas por meio de experimentos com diferentes configuracoes dos algoritmos geneticos. Como resultados o sistemas indica os perfis de velocidade com menores gastos energeticos. Trazendo assim beneficios ambientais, economicos e de conforto em mobilidade urbana, no contexto de solucoes para Cidades Inteligentes.
  • AUGUSTO DE HOLANDA BARRETO MARTINS TAVARES
  • Controle Preditivo Não-Linear Baseado em Modelo Aplicado a Formações de Robôs Móveis com Seleção Dinâmica de Líder
  • Data: 26/07/2018
  • Hora: 10:00
  • Mostrar Resumo
  • Esta pesquisa apresenta uma arquitetura de controle distribuído para controle de formações de robôs, aplicando uma versão modificada do algoritmo de controle do NMPC com uma função custo genérica, que permite a incorporação da camada comportamental ao controlador, mantendo ou melhorando a precisão do algoritmo. Também propõe uma estrutura que permite um processo de seleção de líder dinâmico para a formação de robôs. São apresentados de maneira breve os conceitos teóricos que fundamentam o texto e o estado da arte, contendo as referências que foram utilizadas como base para o trabalho. As modificações do NMPC e a estrutura proposta são elaboradas e são mostrados os resultados tanto em ambiente simulado quanto experimental, validando a efetividade dos conceitos desenvolvidos.
  • SARAH PONTES MADRUGA
  • Projeto de Sistema de Controle Embarcado para Controle de Voo de Quadricópteros
  • Data: 24/07/2018
  • Hora: 10:00
  • Mostrar Resumo
  • Neste trabalho, foi desenvolvido um projeto de sistema embarcado para uma controladora de voo aplicada a quadricópteros. Com componentes acessíveis e de baixo custo, arquitetura e software abertos, ele torna possível a implementação e teste de diversos algoritmos de controle pelo usuário, diferenciando-se das alternativas hoje existentes no mercado. Para tal, há um sensoriamento para a captura e registro da odometria do drone, os comandos são passados para os motores via Modulação por Largura de Pulso, e o processamento é feito em uma Raspberry Pi 3.
  • GEORGENES DE ARAÚJO LIMA
  • Uma Abordagem para Seleção Automática de Bugs em Projetos de Software Baseados em Componentes
  • Data: 11/07/2018
  • Hora: 09:00
  • Mostrar Resumo
  • Vive-se uma epoca em que a tecnologia esta presente em quase todos os processos de trabalho e a demanda por recursos tecnologicos e cada vez mais frequente, com mais mudancas nos sistemas de software, mais requisicoes de manutencao, e, consequentemente, uma maior quantidade de bugs para correcao. Como a correcao de bugs e um dos fatores que impacta na melhoria da qualidade de software, mas representa um alto dispendio de recursos em um projeto de software, a atividade de correcao de bugs representa tambem um obstaculo critico para a manutencao e o desenvolvimento de sistemas. Tendo em vista que a quantidade de bugs pode ser maior que os recursos necessarios para corrigi-los e atualmente as empresas trabalham com entregas antecipadas chamadas de releases que permitem a entrega de partes do software, entao, nas tarefas de correcoes de bugs, os gerentes de projetos podem enfrentar o desafio de selecionar manualmente os bugs a serem corrigidos na proxima versao do produto de software, em geral com base nos criterios de prioridade e severidade indicados nos relatorios de bugs, bem como prazo ou custo. Para tal, os gerentes de projetos adotam ferramentas, denominadas Sistemas de Rastreamento de Bugs, do ingles Bug Tracking Systems (BTS), que estabelecem canais de comunicacao entre fornecedores e clientes. Para sistemas grandes e complexos, nos quais e comum a existencia de um numero consideravel de relatorios de bugs, uma abordagem de selecao de bugs por julgamento ad-hoc de especialistas nao e eficiente e eficaz, representando uma estrategia demorada, intensiva de mao-de-obra e propensa a erros. Neste contexto, explorando tecnicas de Engenharia de Software Baseada em Buscas, do ingles Search Based Software Engineering (SBSE), este trabalho propoe uma abordagem automatizada para a selecao de bugs interdependentes em projetos de software baseados em componentes, adotando um modelo multi-cliente para selecionar os bugs mais relevantes do ponto de vista tanto do produtor de software como de seus clientes, mas com custo total limitado pelo orcamento disponivel no projeto do software. Para avaliacao da proposta, foram realizados dois estudos de casos, onde a estrategia de busca baseada em algoritmo genetico e comparada com as estrategias baseadas em algoritmo exaustivo e algoritmo randomico, e, de forma mais realista, tambem comparada com a selecao baseada no conhecimento e experiencia de analistas de sistemas. Os resultados expressivos que foram obtidos nos estudos de casos expressam a viabilidade, praticidade e efetividade da abordagem proposta.
  • JANALIVIA DO NASCIMENTO CARNEIRO
  • Aplicação de Learning Analytics para Modelagem do Aluno de acordo com a Taxonomia Revisada de Bloom
  • Data: 21/06/2018
  • Hora: 10:00
  • Mostrar Resumo
  • Os Ambientes Virtuais de Aprendizagem (AVAs) sao recursos educacionais resultantes do desenvolvimento tecnologico, sendo uma alternativa para maximizar a capacidade da educacao virtual online. No entanto, a grande maioria dos ambientes de aprendizagem que estao disponiveis para os alunos sao passivos. Tais ambientes sao utilizados principalmente para transmitir documentos multimidia (videos, audios, textos, imagens, etc.) e fornecer formas de avaliar os alunos atraves de questionarios e envios de atividade. Um exemplo de tais sistemas e o Ambiente de Aprendizagem Dinamico Orientado a Objetos Modulares (Moodle). Uma possivel maneira de abordar esse problema e atraves do uso de Sistemas Tutores Inteligentes (STIs). Tais sistemas sao capazes de oferecer suporte adaptativo aos alunos, fornecendo orientacao individual semelhante a um verdadeiro tutor em um modelo de ensino individual. Os STIs viabilizam a oferta de material de instrucao personalizado e suporte adaptativo na educacao, de acordo com as necessidades de cada perfil de aluno, nivel de conhecimento, habilidades cognitivas e competencias nas mais diversas areas de estudo. Neste contexto, este trabalho objetiva investigar as abordagens atuais sobre um dos componentes basicos dos STIs, o Modelo do Aluno. A pesquisa sobre modelagem de alunos e uma questao centralmente importante no projeto de STIs, porque os modelos estudantis desempenham um papel crucial nos STIs. Tais modelos fornecem informacoes uteis sobre o que os alunos entendem, o que permite que os sistemas sejam altamente individualizados. Ao final, este trabalho apresenta a especificacao funcional de um novo modelo do estudante que incorpora dois dos modelos atuais, a fim de aumentar a adaptabilidade de um sistema de aprendizagem online concebido sobre o ambiente Moodle. O modelo proposto utiliza a modelagem dimensional de Learning Analytics para uma classificacao cognitiva do perfil do aluno, de acordo com a Taxonomia de Bloom Revisada.
  • HERCILIO DE MEDEIROS SOUSA
  • Avaliação de Interfaces de Ambientes Virtuais de Aprendizagem: Relacionando Heurísticas de Usabilidade e Padrões de Projeto
  • Orientador : ALISSON VASCONCELOS DE BRITO
  • Data: 21/06/2018
  • Hora: 09:00
  • Mostrar Resumo
  • Os avancos na area de Interacao Humano Computador (IHC), fizeram a tecnologia cada vez mais difundida na sociedade. O surgimento de diversos padroes e normas, de novas tecnicas de avaliacao de interfaces, alem de ferramentas e aplicacoes tem permitido um processo ensino-aprendizagem mais dinamico e interativo atraves do uso de Ambientes Virtuais de Aprendizagem (AVA), porem a diversidade de AVA’s disponiveis, muitas vezes nos impoe a reflexao de qual ambiente possui a melhor qualidade quanto a usabilidade do mesmo. Nesta perspectiva, nossa pesquisa busca interrelacionar as Padroes de Projeto de Welie com as Heuristicas de Usabilidade de Jakob Nielsen, visando comprovar a qualidade das interacoes nos AVA’s Moodle, Canvas e Edmodo. Como resultado, propomos algumas estrategias para correlacionar a avaliacao de interfaces, atraves de heuristicas de usabilidade de Jakob Nielsen, com os padroes de projeto propostos por Welie, para testar a qualidade da usabilidade das interfaces dos AVA’s estudados, validando assim a presente pesquisa atraves de analises estatisticas, corroborando para a verificacao de ate que ponto os AVA’s seguem os Padroes de Projeto e as Heuristicas de Usabilidade.
  • JULIO DANIEL DE CARVALHO MAIA
  • Quantum Scenery: Um Novo Software de Química Quântica Semiempírico Para Sistemas de Memória Distribuída
  • Data: 29/05/2018
  • Hora: 09:00
  • Mostrar Resumo
  • Modelos moleculares quanticos eficientes computacionalmente sao de extrema importancia no tratamento de biomoleculas e sistemas quimicos complexos. Os esforcos na otimizacao de modelos com mais aproximacoes no calculo foram deixados de lado, visto que os mes- mos possuem uma complexidade computacional inferior. Porem, a utilizacao de modelos quanticos para a previsao de reacoes quimicas muito longas e de processos biologicos obriga a utilizacao de modelos aproximados durante o calculo das propriedades desses sistemas. Nesse trabalho, foi proposto um novo software de quimica quantica computacional semiempirico num paradigma de memoria distribuida SPMD para o calculo de propriedades quanticas, utilizando a biblioteca de algebra linear ScaLAPACK. Resultados preliminares mostram que o software proposto e capaz de reproduzir a energia total semiempirica dos sistemas quanticos de forma acurada. Alem da energia, tambem foi proposto um modulo de otimizacao da geometria dos sistemas moleculares a partir do vetor gradiente da energia, que e capaz de prever geometrias que representam minimos de energia para sistemas menores.
  • RAMON CELESTINO RAMOS MARQUES
  • Novo Algoritmo de Segmentação e Realce de Imagens de Impressões Digitais
  • Data: 25/05/2018
  • Hora: 10:00
  • Mostrar Resumo
  • A Biometria oferece um mecanismo de autenticacao confiavel utilizando tracos (fisicos ou comportamentais) que permitem identificar usuarios baseados em suas caracteristicas naturais. Servicos biometricos de classificacao e verificacao de usuarios sao considerados, a principio, mais seguros que sistemas baseados em politicas de senha por exigirem a apresentacao de uma caracteristica fisica unica e, portanto, a presenca do usuario ao menos no momento da autenticacao. O reconhecimento por impressao digital e uma das abordagens biometricas mais utilizadas, visto que sua alta precisao e seu baixo custo tornam os sistemas mais acessiveis e com resultados satisfatorios. No entanto, atualmente, o reconhecimento por impressoes digitais ainda e um problema em aberto, uma vez que erros de falsa aceitacao e falsa rejeicao ainda sao encontrados nos algoritmos de comparacao de impressoes digitais. A presente pesquisa tem como objetivo a criacao de metodos para facilitar o processo de extracao de caracteristicas de impressoes digitais, melhorando a qualidade da imagem de entrada atraves da utilizacao de tecnicas inovadoras de segmentacao e realce, buscando reduzir as taxas de erro e alcancar resultados competitivos com algoritmos do estado-da-arte. As maiores contribuicoes deste trabalho foram a criacao dos seguintes metodos: segmentacao da regiao de interesse das imagens de impressao digital, alcancando taxas de erro inferiores aos melhores algoritmos de segmentacao do mundo em 10 de 12 bases de dados avaliadas, obtendo um ganho medio de 5,6% sobre o melhor algoritmo de segmentacao da atualidade; criacao do metodo de extracao de caracteristicas completo, baseado em trabalhos da literatura, realizando, contudo, correcoes e inovacoes em pontos chave para a obtencao de melhores resultados. O metodo de extracao de caracteristicas foi avaliado atraves da submissao do algoritmo para a competicao de verificacao de impressoes digitais (Fingerprint Verification Competition - FVC), obtendo resultados promissores, sendo classificado como o segundo melhor algoritmo entre grupos de pesquisa e o unico algoritmo de origem brasileira. Alem disso, ao ser realizada a comparacao com o algoritmo de realce base desse trabalho, o metodo desenvolvido nesta pesquisa obteve ganhos de 21%. Com o intuito de reduzir ainda mais as taxas de erro e tornar o algoritmo mais competitivo no cenario internacional, almeja-se utilizar conceitos de redes neurais convolucionais em trabalhos futuros.
  • RAMON CELESTINO RAMOS MARQUES
  • Novo Algoritmo de Segmentação e Realce de Imagens de Impressões Digitais
  • Data: 25/05/2018
  • Hora: 10:00
  • Mostrar Resumo
  • A Biometria oferece um mecanismo de autenticacao confiavel utilizando tracos (fisicos ou comportamentais) que permitem identificar usuarios baseados em suas caracteristicas naturais. Servicos biometricos de classificacao e verificacao de usuarios sao considerados, a principio, mais seguros que sistemas baseados em politicas de senha por exigirem a apresentacao de uma caracteristica fisica unica e, portanto, a presenca do usuario ao menos no momento da autenticacao. O reconhecimento por impressao digital e uma das abordagens biometricas mais utilizadas, visto que sua alta precisao e seu baixo custo tornam os sistemas mais acessiveis e com resultados satisfatorios. No entanto, atualmente, o reconhecimento por impressoes digitais ainda e um problema em aberto, uma vez que erros de falsa aceitacao e falsa rejeicao ainda sao encontrados nos algoritmos de comparacao de impressoes digitais. A presente pesquisa tem como objetivo a criacao de metodos para facilitar o processo de extracao de caracteristicas de impressoes digitais, melhorando a qualidade da imagem de entrada atraves da utilizacao de tecnicas inovadoras de segmentacao e realce, buscando reduzir as taxas de erro e alcancar resultados competitivos com algoritmos do estado-da-arte. As maiores contribuicoes deste trabalho foram a criacao dos seguintes metodos: segmentacao da regiao de interesse das imagens de impressao digital, alcancando taxas de erro inferiores aos melhores algoritmos de segmentacao do mundo em 10 de 12 bases de dados avaliadas, obtendo um ganho medio de 5,6% sobre o melhor algoritmo de segmentacao da atualidade; criacao do metodo de extracao de caracteristicas completo, baseado em trabalhos da literatura, realizando, contudo, correcoes e inovacoes em pontos chave para a obtencao de melhores resultados. O metodo de extracao de caracteristicas foi avaliado atraves da submissao do algoritmo para a competicao de verificacao de impressoes digitais (Fingerprint Verification Competition - FVC), obtendo resultados promissores, sendo classificado como o segundo melhor algoritmo entre grupos de pesquisa e o unico algoritmo de origem brasileira. Alem disso, ao ser realizada a comparacao com o algoritmo de realce base desse trabalho, o metodo desenvolvido nesta pesquisa obteve ganhos de 21%. Com o intuito de reduzir ainda mais as taxas de erro e tornar o algoritmo mais competitivo no cenario internacional, almeja-se utilizar conceitos de redes neurais convolucionais em trabalhos futuros.
  • DANIEL CARDOSO DE MORAIS
  • Um ambiente de verificação funcional distribuído para o desenvolvimento de sistemas embarcados
  • Data: 19/02/2018
  • Hora: 10:00
  • Mostrar Resumo
  • A sincronizacao de componentes distribuidos e heterogeneos em um ambiente de verificacao funcional pode nao ser uma tarefa simples. Alem disso, a verificacao de implementacoes paralelas acrescenta ainda mais complexidade devido a grande quantidade de dados a serem verificados. Este trabalho tem como objetivo apresentar um ambiente de verificacao distribuida que permita a integracao e verificacao de componentes distribuidos e heterogeneos. Para isso, foi utilizado um framework de intercomunicacao, com base no padrao de Arquitetura de Alto Nivel (IEEE 1516). Assim, este trabalho tambem demonstra como a arquitetura proposta abstrai detalhes de comunicacao e sincronizacao para tornar o processo de verificacao funcional em componentes distribuidos o mais direto possivel. Como demonstracao da solucao desenvolvida, um experimento e apresentados para a verificacao funcional do algoritmo integral da imagem em um Hardware in the Loop, alem da verificacao simultanea de sua versao em uma CPU.
  • TULIO ALBUQUERQUE PASCOAL
  • Atacando e Defendendo Redes Definidas por Software
  • Data: 15/02/2018
  • Hora: 09:00
  • Mostrar Resumo
  • Redes definidas por Software (SDN - Software Defined Networks) facilitam o gerenciamento de redes de computadores a partir da separacao do plano de dados, que realiza o encaminhamento de pacotes utilizando switches SDN, e do plano de controle, que define regras (definidas por um controlador central) de como os pacotes devem ser encaminhados e tratados na rede. Contudo, devido a limitacao do numero de regras de encaminhamento que um switch pode armazenar em sua memoria TCAM (Ternary Content-Addressable Memory), redes SDN vem sendo sujeita a ataques de Saturacao (Saturation Attack) e Exaustao da Tabela TCAM (TCAM exhaustion attacks). Nesses ataques os atacantes sao capazes de negar o servico da rede forcando o switch alvo a instalar um grande numero de regras a partir da criacao de grande trafego de pacotes unicos. Esse trabalho mostra que esse pressuposto nao e necessariamente verdadeiro e que redes SDN sao vulneraveis a um novo ataque, chamado Slow-TCAM (Slow TCAM Exhaustion Attack) em que defesas atuais contra ataques de Saturacao e Exaustao da Tabela TCAM nao sao capazes de mitiga-lo por conta de seu trafego relativamente baixo e sua similaridade com trafego legitimo. Nesse trabalho tambem e proposta uma defesa inedita chamada SIFT, baseada em estrategias seletivas, demonstrando sua eficacia contra o ataque Slow-TCAM, obtendo uma disponibilidade acima de 92% para clientes legitimos (no pior caso) quando a rede esta sob ataque com um baixo consumo de memoria e CPU.
2017
Descrição
  • ALAN BONIFACIO DE PONTES
  • Uso de Predição de Defeitos Aplicada ao Processo de Identificação e Recomendação para Priorização de Bugs
  • Data: 28/11/2017
  • Hora: 16:00
  • Mostrar Resumo
  • A utilizacao de tecnicas computacionais vem aumentando consideravelmente, proporcionando assim um desenvolvimento progressivo da ciencia e da pesquisa cientifica em todas as areas de conhecimento. Os sistemas computacionais auxiliam significativamente neste processo e a qualidade destes sistemas torna-se um fator essencial, pois os softwares estao cada vez mais complexos. Igualmente, para alcancar a qualidade deseja, a etapa de testes de software faz-se necessaria e e primordial que seja executada de forma mais otimizada quanto possivel, pois ja e consenso que esta etapa demanda tempo e dinheiro. Com isso, as tecnicas de predicao de defeitos tem se tornado uma grande aliada em descobrir defeitos de software. Neste trabalho nos apoiamos nas diversas tecnicas de predicao de defeitos disponiveis, bem como nas metricas computacionais encontradas, e a partir da matriz de confusao podemos indicar os modelos mais promissores para predizer os defeitos de software e tambem auxiliar na indicacao das possiveis recomendacoes de priorizacao de bugs. No trabalho e verificada a validacao dos modelos, que sao criados a partir das versoes mais antigas do sistema estudado, aplicando tais modelos nas versoes mais recentes. Ou seja, as versoes mais iniciais do sistema deverao indicar possiveis erros nas versoes futuras do mesmo sistema estudado. Alem disso, tambem e possivel a indicacao automatizada da prioridade do bug encontrado. O principal objetivo e servir de apoio ao time para que este possa priorizar a elaboracao e a execucao dos roteiros de testes nas proximas versoes, bem como indicar, com base em dados historicos, a prioridade do erro encontrado.
  • MATHEUS CORDEIRO DE MELO
  • Novo Método de Classificação Automática de Achados em Mamografias FFDM e SFM utilizando Rede Neural
  • Data: 16/11/2017
  • Hora: 14:00
  • Mostrar Resumo
  • O cancer de mama e o tipo de cancer com maior incidencia entre as mulheres. A mamografia e o exame mais indicado para a deteccao precoce deste cancer, possibilitando a deteccao de lesoes muito pequenas e a visualizacao de ate 90% das anormalidades (massas, calcificacoes, distorcoes de arquitetura). O diagnostico do cancer de mama, atraves do exame de mamografia, consiste em um processo propenso a erros devido, principalmente, as interpretacoes equivocadas dos medicos, consequencia da real dificuldade do procedimento. Sistemas Baseados em Diagnostico por Computador (do ingles Computer-Aided Diagnosis – CAD) podem ser desenvolvidos com o objetivo de ser uma segunda opiniao na identificacao e diagnostico da doenca utilizando imagens mamograficas. Imagens mamograficas podem ser obtidas atraves da mamografia convencional (do ingles Screen-film Mammography - SFM) e da totalmente digital (do ingles Full Fiel Digital Mammography - FFDM), a qual apresenta uma melhor resolucao e esta substituindo gradualmente a SFM. Este trabalho desenvolveu um novo metodo de classificacao automatica de achados mamograficos em benignos ou malignos. Primeiramente, foram selecionados dois bancos, o Digital Database for Screening Mammography (DDSM) que disponibiliza imagens coletadas da SFM e o INbreast que possui imagens obtidas pela FFDM. A seguir, foram selecionadas aleatoriamente imagens com massas mamograficas do DDSM e INbreast. Na etapa de pre-processamento, desenvolveu-se uma nova tecnica de identificacao e eliminacao de ruido baseada na Teoria de Informacao. Apos o pre-processamento, importantes descritores foram extraidos atraves da matriz de Co-ocorrencia de Niveis de Cinza e do metodo Analise de Textura Fractal Baseada em Segmentacao. Por fim, a base de caracteristicas serviu de entrada para o algoritmo classificador rede neural perceptron multicamadas. Considerando o DDSM, o metodo atingiu 93,13% de acuracia, 94,17% de especificidade e 91,23% de sensibilidade. Com o INbreast, atingiu-se 88,37% de acuracia, 83,79% de especificidade e 91,84% de sensibilidade. Os resultados obtidos neste trabalho mostraram-se competitivos com a literatura da area.
  • CLOVIS GARCIA MARCONDES
  • Extração da Frequência Respiratória Utilizando Filtros de Gabor e Transformada Discreta de Fourier em Sistema Baseado em Acelerômetros
  • Data: 29/09/2017
  • Hora: 14:00
  • Mostrar Resumo
  • O monitoramento dos sinais vitais representa um grande avanco no aspecto de prevencao e diagnostico de enfermidades, permitindo que a atencao de profissionais de saude possa ser alertada e acoes mais rapidas possam ocorrer. Para um acompanhamento continuo em situacoes cotidianas, alem do aspecto de conforto na utilizacao, dispositivos ou tecnologias nao-invasivas se fazem necessarios. A frequencia respiratoria e um dos sinais vitais que ainda nao dispoe de opcoes comerciais com tais caracteristicas e, portanto, este trabalho teve por objetivo propor um sistema de aquisicao de dados respiratorios, nao invasivo, baseados em acelerometros tri-axiais que, diferente de trabalhos similares, permita a utilizacao por periodos prolongados, com interferencia minima nas acoes cotidianas do usuario. A construcao de um sistema embarcado baseado em ARDUINO foi considerado como vantagem pela simplificacao do processo de prototipacao, reduzindo os custos e acelerando o desenvolvimento. A aquisicao de sinais se da pela utilizacao de um acelerometro frontal no torax, responsavel pela medicao da movimentacao do tronco, aliado a um outro acelerometro nas suas costas, com o objetivo de medir os efeitos de movimentacao ou mudancas posturais, e pretende preencher uma lacuna presente em trabalhos similares desenvolvidos nos ultimos anos, muito sensiveis a mudancas posturais e movimentacoes. Foram considerados dois metodos de processamento digital de sinal para a extracao da frequencia respiratoria a partir dos dados dos eixos dos acelerometros, sendo o primeiro baseado no Dominio do Tempo, atraves da utilizacao de filtros de Gabor 1D, devido a sua natureza periodica, alem de representar um potencial avanco, ja que geralmente filtros de Gabor sao utilizados predominantemente em processamento de imagens. O segundo, no Dominio da Frequencia, utilizando-se da Transformada Discreta de Fourier, foi introduzido como alternativa de solucao durante a fase experimental, devido aos bons resultados apresentados em testes complementares comparativos realizados. Para validacao da solucao em um contexto de uso cotidiano, a avaliacao experimental considerou a realizacao de testes em diferentes posturas, tendo apresentado bons resultados em ambos os metodos em situacoes de movimentacoes posturais, mas ainda carecendo de melhorias para utilizacao durante a movimentacao do usuario, a serem exploradas em trabalhos futuros.
  • DANILO ALEXANDRE BARBOSA DE ARAUJO
  • DicomFlow: gateway assíncrono e descentralizado para formação de uma infraestrutura de informação para distribuição de imagens médicas
  • Data: 31/08/2017
  • Hora: 16:00
  • Mostrar Resumo
  • A digitalizacao de imagens medicas, o modelo PACS/DICOM e os avancos das tecnologias de informacao e comunicacao proporcionam as condicoes para formar uma infraestrutura para distribuicao de imagens medicas em larga escala. Entretanto, mesmo considerando a grande base instalada PACS/DICOM, nao se observa a formacao de uma infraestrutura de informacao para troca de imagens medicas entre entidades de saude, pois a inercia da base instalada dificulta sua evolucao. Uma infraestrutura de informacao oferece um espaco de compartilhamento de informacoes e colaboracao que permite a associacao espontanea de pessoas, organizacoes e componentes tecnologicos situados em contextos geograficos distintos para desenvolvimento de alguma atividade. O objetivo desse trabalho foi elaborar o DicomFlow, um gateway assincrono, assimetrico e descentralizado, construido sobre a base instalada PACS/DICOM e infraestrutura de e-mail da Internet visando promover a formacao de uma infraestrutura de informacao para a distribuicao de imagens medicas, favorecendo a pratica de trabalho radiologica. Para tanto, especificou-se um protocolo de comunicacao com suporte a servicos de gerencia de exames de imagens DICOM baseado em troca de mensagens assincronas e transmissao de imagens medicas e construiu-se um modelo arquitetural em duas camadas para esse fim. Experimentos em ambiente simulado e ambiente real foram realizados para avaliar a infraestrutura quanto a sua viabilidade tecnica e operacional. Concluiu-se que o DicomFlow possibilita a troca de imagens entre profissionais e organizacoes de saude quaisquer, desde que pertencam a base instalada, fomentando a formacao de uma infraestrutura de informacao para distribuicao de imagens medicas.
  • ALEXSANDRO MARCELINO FERNANDES
  • YPOSTÍRIXI: MODELO DE APOIO BASEADO EM RPG AVENTURA SOLO PARA O DESENVOLVIMENTO DE OBJETOS DE APRENDIZAGEM
  • Data: 31/08/2017
  • Hora: 14:00
  • Mostrar Resumo
  • Com o avanco das tecnologias digitais no meio educacional, os objetos de aprendizagem (OA) se tornaram um elemento importante no processo de ensino aprendizagem. O OA e compreendido como sendo qualquer recurso digital ou nao que possa apoiar a aprendizagem. Considerando a educacao a distancia (EaD), essa tecnologia assume um papel ainda mais relevante, uma vez que se utiliza dos recursos tecnologicos para transmitir o conhecimento. Esse trabalho tem como objetivo propor um modelo de apoio baseado em RPG Aventura Solo para o desenvolvimento de objetos de aprendizagem utilizando o sistema e a mecanica do Role Playing Game, visando prover um componente auxiliador no processo de ensino e aprendizagem, simplificando o processo de elaboracao e construcao dos Objetos de Aprendizagem pelos professores. O modelo proposto foi criado de acordo com as teorias de ensino e aprendizagem de Skinner (1972), juntamente com Levy (1993) no que se refere ao resgate das informacoes proveniente dos estimulos com a associacao de: imagens, sons, palavras-chaves, assim como Hayashi (2003) e Siqueira (2011), com relacao a capacidade de assimilacao de conteudos e a capacidade de decisao. A validacao do modelo proposto sinalizou, a partir da analise dos dados obtidos, que o modelo proposto teve uma aceitacao positiva pelos professores participantes revelando-se como um modelo de apoio relevante no auxilio ao processo de ensino e aprendizagem.
  • DOUGLAS ANDRADE DE MENESES
  • Otimização do algoritmo Non Local Means mediante agrupamento por similaridade no domínio da frequência
  • Data: 31/08/2017
  • Hora: 14:00
  • Mostrar Resumo
  • O algoritmo Non Local Means (NLM) e amplamente utilizado para remocao de alta qualidade de ruido de imagens. Ainda assim, sua complexidade computacional torna-se um obstaculo para a maioria das aplicacoes. Neste trabalho propoe-se uma nova abordagem que visa reduzir o tempo de processamento, sem recorrer a janelas de busca, preservando assim os calculos nao locais que caracterizam o NLM. O metodo proposto usa o algoritmo de agrupamento K-means para agrupar pixels com vizinhancas semelhantes no dominio da Transformada Cosseno Discreta (DCT). Para evitar transacoes severas nas bordas dos agrupamentos, um pixel pode ser atribuido a diferentes clusters. Apos esse passo inicial, o algoritmo NLM executa uma pesquisa baseada em cluster. Os resultados experimentais testificam uma reducao em torno de 19 vezes no tempo computacional e, em alguns casos, melhorias nos valores do Erro Quadratico Medio (MSE), quando comparados ao algoritmo original.
  • MAELSO BRUNO PACHECO NUNES PEREIRA
  • Aceleração de Autômatos Celulares no Contexto de Biologia através de Computação Paralela em GPUs com OpenCL
  • Data: 31/08/2017
  • Hora: 14:00
  • Mostrar Resumo
  • Automatos Celulares (AC) tem suas origens no trabalho de Von Neumann e, desde entao, tornou-se um tema de pesquisa importante com uma ampla gama de aplicacoes, que vao desde modelagem de sequencia de DNA ate a dinamica ecologica. Um aspecto que pode ser interessante durante uma simulacao de AC e a evolucao no numero de individuos de cada especie ao longo do tempo. Esta analise pode fornecer informacoes importantes sobre o dominio de certas especies em um sistema dinamico, ou identificar aspectos que possam favorecer uma ou mais especies em detrimento de outras. As simulacoes de AC podem ser tarefas computacionalmente muito custosas. Dependendo do tamanho do dominio de simulacao, do numero de dimensoes ou do numero de individuos, essas simulacoes podem levar varias horas para serem concluidas. A avaliacao do numero de individuos em cada ciclo de simulacao e uma tarefa igualmente custosa. Varias tecnicas de aceleracao foram desenvolvidas para melhorar o desempenho das simulacoes de AC, e algumas delas levam em consideracao a evolucao no numero de individuos ao longo da simulacao. Neste trabalho, e proposto um simulador de AC eficiente, capaz de avaliar de forma eficiente a evolucao no numero de individuos de cada especie. O alto desempenho e obtido atraves do uso do paralelismo macico de GPUs.
  • TIAGO EMILIO DE SOUSA ARAUJO
  • Avaliando o Desempenho dos Sistemas de Detecção de Intrusão Snort e Suricata em Ataques de Negação de Serviço
  • Data: 31/08/2017
  • Hora: 08:00
  • Mostrar Resumo
  • Os Sistemas de Deteccao de Intrusao sao ferramentas de software baseadas em assinaturas que provem mecanismos para a deteccao e analise de intrusoes em redes. Deteccao de Intrusao e o processo de monitoramento de eventos que ocorrem em uma rede e a analise destes para detectar sinais de intrusao, definidos como tentativas de comprometer a confidencialidade, integridade e disponibilidade da rede. Utilizando um cenario experimental e coletas de trafego em uma Instituicao de Ensino Superior no Brasil, avaliamos o desempenho dos Sistemas de Deteccao de Intrusao Snort e Suricata para a deteccao de ataques de Negacao de Servicos Distribuidos (Slowloris, LOIC-UDP e LOIC-HTTP). Nosso estudo descobriu que o Suricata nao gera um numero adequado de alertas para chamar a atencao do gerente de rede sobre o ataque Slowloris, enquanto Snort o faz. Para os ataques LOIC-UDP e LOIC-HTTP, os referidos sistemas efetuam a deteccao dos ataques de forma eficiente. Foi tambem analisado o consumo de CPU e memoria da maquina-alvo onde operaram os IDS durante os ataques, verificando-se o mostram o esgotamento dos recursos de memoria durante determinados ataques. Finalmente, a analise de trafego off-line revela que a Instituicao de Ensino Superior durante o periodo analisado, estava sob ataques DDoS.
  • VINICIUS ANTONIO CAMPOS FAGUNDES
  • Avaliação de Estratégias de Visualização em Dados Climáticos: Uma Análise através da Perspectiva do Usuário
  • Data: 29/08/2017
  • Hora: 10:00
  • Mostrar Resumo
  • Dados climaticos assim como suas previsoes estao cada vez mais presentes em nosso cotidiano. E muito comum, por exemplo, ver previsoes meteorologicas em telejornais ou ainda alertas a determinadas localidades sobre um possivel desastre natural prestes a ocorrer, como inundacoes, furacoes, entre outros. Para a analise e disseminacao destas informacoes sao utilizadas tecnicas de visualizacao sobre estes dados climaticos para que sejam apresentados ao publico de maneira compreensivel. Porem, nem sempre tal informacao climatica esta apresentada de forma clara, dificultando o seu entendimento. Este trabalho de proposta de dissertacao apresenta um estudo sobre as formas de representacao mais utilizadas destas tecnicas de visualizacao, buscando identificar quais sao as principais tecnicas e como utiliza-las nos mais diversos tipos de dados climaticos. Assim, foi realizado um mapeamento sistematico na area a fim de identifica-las, bem como suas formas de representacao, seja em 2D, 3D ou ate interativa. Por fim, uma avaliacao de uso com usuarios voluntarios e proposta, buscando identificar o quao bem este tipo de informacao e compreendida quando disseminando a informacao sobre algum dado climatico em especifico.
  • RAUL FELIPE DE MORAIS FERNANDES
  • Imersão na Visualização Científica: utilizando um ambiente virtual imersivo para interação com dados climáticos
  • Data: 29/08/2017
  • Hora: 08:00
  • Mostrar Resumo
  • Os metodos de representacao de dados cumprem funcao importante em qualquer area de estudo, uma vez que compreender as informacoes em um contexto de pesquisa e essencial para qualquer avanco cientifico. Neste sentido, a area de Visualizacao Cientifica ganha destaque ao propor meios eficientes de aprimorar a percepcao do observador sobre um conjunto de dados. No campo da meteorologia, por exemplo, os conjuntos de dados sao informacoes visuais complexas sobre diversos eventos climaticos distintos analisados em inumeras pesquisas. A variedade de fenomenos climaticos complexos, que necessitam de representacoes visuais intuitivas para transmitir as impressoes corretas, acabam trazendo alguns desafios para a Visualizacao Cientifica nesta area. Desta forma, e preciso investigar alternativas que possam aprimorar as formas de visualizacao dentro desse contexto. A Realidade Virtual (RV) tem sido cada vez mais utilizada como ferramenta alternativa para representacoes nao-convencionais na medida que se torna mais acessivel. O conceito de Ambientes Virtuais (AV's) imersivos tem sido aplicado para melhorar a experiencia de usuarios em contexto de ensino e aprendizagem por proporcionar maior nivel de concentracao e liberdade para exploracao das informacoes apresentadas. De acordo com esses fatos, este trabalho apresenta um estudo sobre a utilizacao da Visualizacao Cientifica de Dados Climaticos em Ambientes Virtuals imersivos, a fim de identificar como a Realidade Virtual pode trazer beneficios para o entendimento representacoes dos dados complexos. Para isso, foi desenvolvida uma aplicacao para visualizacao imersiva de informacoes climaticas, seguida por uma avaliacao com especialistas relacionada ao uso desses conceitos no contexto da meteorologia.
  • ALANDEY SEVERO LEITE DA SILVA
  • Framework para análise das tensões da base instalada no estabelecimento de uma infraestrutura de informação.
  • Data: 28/08/2017
  • Hora: 14:00
  • Mostrar Resumo
  • O objetivo principal desse trabalho e criar um framework para analisar as tensoes da base instalada e como essas influenciam no estabelecimento de uma Infraestrutura de Informacao (II). Dentre alguns dos exemplos de II estao a Internet, o comercio eletronico, o Intercambio Eletronico de Dados, as infraestruturas de redes sem fio (wireless), os sistemas integrados de gestao empresarial (Enterprise Resource Planning – ERP), a interacao entre pessoas, o setor de saude e as redes de colaboracao cientifica. Metodologicamente, adota-se uma posicao qualitativa e uma visao mais social e humanista do tema para chegar ao entendimento da sua influencia na adocao de uma tecnologia. Para aplicacao do framework construido, dados do estudo do Registro Eletronico de Saude (RES) no Estado da Paraiba foram analisados. Alem das fontes bibliograficas consultadas, utilizou-se da analise de conteudo para a interpretacao de entrevistas colhidas. A analise por intermedio do presente framework aponta que os RES sao complexos e permeados por tensoes nao resolvidas, limitrofes para consolidacao de uma II, exigindo praticas que nao subestimem nem negligenciem sua base instalada, seus efeitos sociotecnicos, suas tensoes e seus reversos salientes. A aplicacao do framework em outras II podera contribuir com o aperfeicoamento e consolidacao desse instrumento, tornando-o mais abrangente e eficiente em sua finalidade.
  • RAPHAEL BEZERRA XAVIER
  • Abordagem C-GRASP com adaptação automática para otimização global contínua
  • Data: 24/08/2017
  • Hora: 14:30
  • Mostrar Resumo
  • O uso das meta-heuristicas e fortemente recomendado para resolucao de problemas de otimizacao. Geralmente sao utilizadas para resolver problemas de otimizacao discreta. As meta-heuristicas buscam suas versoes originais para conseguir solucoes aproximadas, e metodos adaptativos sao implementados para obter maior desempenho, consequentemente melhorando a forma como a meta-heuristica funciona. Greedy Randomized Adaptive Search Procedure (GRASP), Variable Neighborhood Search (VNS) e Variable Neighborhood Descent (VND) tem sido usadas para resolver problemas de otimizacao global continua, com suas adaptacoes implementadas. A meta-heuristica Continuous GRASP esta incluida na classe das que mais sofreram adaptacoes para a resolucao desses problemas. Alguns trabalhos possuem relevancia por implementarem estas adaptacoes do Continuous GRASP (C-GRASP). O Directed Continuous GRASP (DC-GRASP) e um melhoramento proposto para acelerar a convergencia do metodo C-GRASP atraves da geracao de direcoes de descida, sem calculos de derivada, utilizando uma busca local baseada no metodo Adaptive Pattern Search (APS). Uma adaptacao automatica e inserida no DC-GRASP para otimizar a definicao dos parametros em funcoes de alta dimensao, com um metodo utilizando a meta-heuristica Particle Swarm Optimization (PSO). Nas funcoes com dimensoes menores, um mecanismo de ampliacao do tamanho do passo na busca local (APS) e o uso da busca linear inexata, foram propostas para melhorar o aproveitamento das iteracoes dos metodos. Para validar o metodo implementado foram usadas as ultimas implementacoes adaptativas do Continuous GRASP encontradas na literatura recente, como tambem em versoes originais publicadas em artigos que usam a meta-heuristica. Alguns experimentos computacionais foram realizados em um benchmark de funcoes de teste com minimo global conhecido, comprovando assim a eficacia do metodo para o auxilio na convergencia.
  • RODRIGO LOUREIRO PARENTE
  • Algoritmos para análise da qualidade de imagens faciais de acordo com requisitos do padrão ISO/ICAO
  • Data: 24/08/2017
  • Hora: 14:00
  • Mostrar Resumo
  • A face e uma das caracteristicas fisicas mais usadas para reconhecimento biometrico. A confirmacao de identidade, pela face, com documentos tradicionais e feita por um ser humano, tarefa que demanda tempo, recursos humanos e impede a agilidade de cenarios criticos como aeroportos etc. Nesse contexto, a International Civil Aviation Organization (ICAO), ou Organizacao Internacional de Aviacao Civil, iniciou um projeto para validacao automatica de identidade pessoal atraves de passaporte eletronico. Entretanto, a precisao do reconhecimento biografico em fotografia digital da face depende diretamente da qualidade da amostra facial coletada. Assim, a Organizacao Internacional de Padronizacao (ISO) desenvolveu um padrao internacional de qualidade para imagem facial a ser usado em passaportes eletronicos. Este trabalho visa apresentar algoritmos para avaliacao da qualidade de imagens faciais de acordo com os quatro requisitos do padrao ISO/ICAO descritos a seguir. A verificacao do nivel de embacamento e feita explorando a informacao das altas frequencias, calculando a variancia dos pixels apos filtragem passa-altas de Sobel. O algoritmo proposto obteve taxa de erro de 6,2%. O requisito de analise da presenca de cabelo em frente aos olhos e avaliado atraves de deteccao de bordas verticais na regiao ocular para detectar fios de cabelo na regiao dos olhos. O algoritmo proposto obteve taxa de erro de 11,9%. O requisito que analisa a presenca de chapeu e averiguado atraves de segmentacao de pele na regiao da testa. Finalmente, o requisito da analise olhos encobertos por armacao de oculos e averiguado atraves da deteccao de bordas horizontais e deteccao de linhas na regiao dos olhos. O algoritmo proposto obteve taxa de erro de 7,2%. O metodo para deteccao do encobrimento dos olhos por armacao de oculos busca detectar segmentos de reta horizontais, causados pela armacao, na regiao dos olhos. O algoritmo proposto obteve taxa de erro de 11,6%.
  • ARUAN GALVES NASCIMENTO AMARAL
  • Uma Abordagem Baseada em Riscos de Software para Seleção de Requisitos
  • Data: 22/08/2017
  • Hora: 14:00
  • Mostrar Resumo
  • Em abordagens de desenvolvimento incremental, existe um grande interesse em entregar releases do sistema dentro do cronograma, sem estourar o orcamento, e, ao mesmo tempo, que agregue o maximo de satisfacao possivel aos interessados no projeto. Assim, o processo de selecao de requisitos e um fator-chave para identificar um subconjunto bom ou ate mesmo otimo de requisitos candidatos que atendam estas condicoes. Tecnicas tradicionais que envolvem um processo manual de selecao e priorizacao de requisitos encontram limitacoes ao lidar com um grande conjunto de requisitos. Nesta direcao, o Problema do Proximo Release, do ingles Next Release Problem (NRP), apresenta uma modelagem computacional para este processo decisorio, evoluindo desde uma abordagem simples com um unico objetivo a ser alcancado dado um orcamento-limite, partindo para abordagens com multiplos objetivos que flexibilizam a tomada de decisao, sem restringir limites pre-fixados para as metas a serem alcancadas no release. Apesar desta evolucao, a maior parte das contribuicoes para o Problema do Proximo Release nao tratam riscos de software, que e um fator-chave que pode impactar profundamente o custo do projeto e a satisfacao dos stakeholders. Deste modo, este trabalho propoe uma abordagem baseada em riscos para um problema do proximo release multi-objetivo, em que os riscos sao incorporados nas avaliacoes de custo e satisfacao do sistema a ser entregue. De modo a validar a proposta, alem de uma revisao sistematica comparando a literatura existente relacionada com o tema da abordagem proposta, o trabalho apresenta resultados de tres metaheuristicas distintas capazes de lidar com multiplos objetivos a serem otimizados. Estes algoritmos sao aplicados a duas bases de dados semi-reais que revelam a eficiencia e aplicabilidade potencial da abordagem proposta.
  • JOAO HENRIQUE GONCALVES CORREA
  • SHADE: UMA ESTRATÉGIA SELETIVA PARA MITIGAR ATAQUES DDOS NA CAMADA DE APLICAÇÃO EM REDES DEFINIDAS POR SOFTWARE
  • Data: 27/07/2017
  • Hora: 08:30
  • Mostrar Resumo
  • O processo de evolucao dos computadores chegou a tal ponto que informacoes, antes dis- tantes, se encontram a um clique do usuario. Com o desenvolvimento da tecnologia, houve tambem a evolucao de mecanismos que atentam contra a seguranca da informacao, inclusive quanto a disponibilidade de uma determinada informacao. Os ataques de negacao de servico (DoS) ou sua forma distribuida (DDoS) estao entre os que mais impactam nos negocios, afetando a disponibilidade do servico. Ataques de negacao de servico na camada de aplicacao exploram caracteristicas existentes nos protocolos da referida camada (HTTP e SIP). Um grande desafio na mitigacao deste tipo de ataque e o fato que as requisicoes de atacantes tem igual validade a de clientes legitimos. Este trabalho propoe o uso de tecnicas de identificacao de assinaturas para a manutencao de listas brancas dinamicas, a fim de mitigar ataques de negacao de servico na camada de aplicacao. Essas assinaturas permitem a identificacao mais precisa de um usuario dentro de um fluxo de rede por meio da monitoracao de parametros, como sistema operacional, navegador, IP utilizados. A efetividade da tecnica foi demonstrada por meio de experimentos realizados na rede, em que sem o uso da tecnica, uma Aplicacao web so conseguiu atender 17% dos clientes durante um ataque Get- Flooding, enquanto que com a utilizacao da lista branca dinamica a disponibilidade subiu para mais de 99%.
  • JOSÉ DE SOUSA BARROS
  • Uma Ferramenta para Avaliar Estratégias de Voos de VANTs usando Cossimulação
  • Data: 26/04/2017
  • Hora: 10:00
  • Mostrar Resumo
  • Sistemas que utilizam Veiculos Aereos Nao-Tripulados (VANT) sao exemplos tipicos de sistemas ciber-fisicos. Projetar tais sistemas nao e uma tarefa trivial porque traz consigo o desafio de lidar com a incerteza, que e algo inerente a este tipo de sistema. Por isso, e necessario que o projeto seja feito com ferramentas apropriadas que possam viabilizar a execucao desses sistemas com um certo nivel de confianca para seus usuarios. Deste modo, a proposta deste trabalho e unir dois simuladores, atraves do HLA, com o objetivo de simular e avaliar estrategias de voos mais proximas do ambiente de voo real. Para isso, foi construido um simulador onde e possivel realizar diversos planos de voo com a finalidade de analisar diferentes estrategias em um ambiente provido de incertezas. O simulador foi desenvolvido na ferramenta Ptolemy e integrado, atraves do HLA, com o simulador SITL/ArduPilot. Com a utilizacao da abordagem defendida neste trabalho e possivel obter resultados mais proximos da realidade, assim estrategias mais eficientes de voo podem ser desenvolvidas e avaliadas.
  • Eduardo de Santana Medeiros Alexandre
  • Utilização de Markdown para elaboração de TCCs: experimento da ferramenta limarka
  • Data: 24/03/2017
  • Hora: 14:00
  • Mostrar Resumo
  • O tema deste trabalho é a utilização de uma linguagem de marcação leve (Markdown) para elaboração de trabalhos de conclusão de curso em conformidade com as Normas da ABNT. Nele relata-se o desenvolvimento da ferramenta Limarka, que possibilitar escrita de TCC através de uma linguagem de marcação leve, e um experimento com dez alunos elaborando propostas de TCCs nela. A metodologia empregada foi experimento com entre- vistas semiestruturadas e análise qualitativa. Os objetivos da pesquisa são: implementar uma ferramenta que possibilite a escrita de TCCs em conformidade com as Normas da ABNT e avaliar sua utilização. Os principais resultados da pesquisa tiveram duas fontes: 1) Conhecimentos resultante do desenvolvimento da aplicação. São eles: Um TCC não deve ser produzido por ferramentas que utilizem o formato DocBook como intermediário; A comunidade abnTeX oferta uma ótima alternativa em Latex para produzir TCCs nacio- nais em conformidade com as Normas da ABNT; A utilização de um template baseado no modelo de TCC do abnTeX e a geração de códigos Latex a partir de Markdown possibilita a geração de trabalhos em conformidade com as Normas da ABNT. 2) Conhecimentos pro- venientes da análise do experimento. São eles: Para configuração do template, a utilização de um formulário PDF, em vez de código YAML, torna o processo de configuração mais fácil; A solução com escrita em Markdown apresentam equivalência de expressividade ao Latex, pois permite a inserção de seus códigos; Existe indícios de que os usuários acharão mais fácil aprender e utilizar Markdown do que Latex. A principal conclusão do trabalho indica que é possível utilizar uma linguagem de marcação leve (Markdown) para escrita de TCCs nacionais em conformidade com as Normas da ABNT. E sua utilização deve ser incentiva pois é expressivamente equivalente a Latex, porém é mais simples e fácil de ser utilizado.
  • DANIEL MIRANDA DE BRITO
  • Uma nova abordagem para a identificação de ilhas genômicas em bactérias com base no método de agrupamento mean shift
  • Data: 24/02/2017
  • Hora: 08:00
  • Mostrar Resumo
  • Ilhas genomicas (IGs) sao regioes do genoma de bacterias adquiridas atraves do fenomeno da transferencia horizontal. Frequentemente, essas regioes proporcionam importantes adaptacoes as bacterias, como resistencia a antibioticos e patogenicidade, cujos efeitos podem ser danosos aos humanos. Por essa razao, diversas metodologias foram propostas para a sua predicao, porem nenhuma capaz de identificar o repertorio completo de ilhas presentes em uma determinada sequencia bacteriana. Portanto, torna-se oportuno o desenvolvimento de novos metodos que explorem diferentes aspectos dessas regioes, permitindo a identificacao das regioes ainda nao conhecidas. Nesse trabalho, propoe-se um novo metodo para a identificacao de IGs, construido com base no metodo de agrupamento mean shift, como calculo automatico da bandwidth, indispensavel para o seu funcionamento. Resultados dos testes com ilhas genomicas sinteticas mostram que o metodo e capaz de identificar essas regioes com taxas de acerto maiores que 99%. Testes realizados com genomas de bacterias com IGs conhecidas revelaram o potencial do metodo para a sua identificacao e tambem de ilhas ainda nao descobertas. O estudo detalhado do conteudo das novas ilhas e apontou a presenca de elementos tipicos de IGs, confirmando a eficacia do metodo na predicao dessas regioes.
  • EDUARDO DE SOUZA GAMA
  • Problema de atribuição de rota, comprimento de onda e bandas em redes ópticas metropolitanas MB-OFDM
  • Data: 23/02/2017
  • Hora: 08:30
  • Mostrar Resumo
  • As redes opticas metropolitanas, que compoem o backbone de grande parte das redes de transporte ao redor do mundo, precisao estar em constante evolucao para suportar o forte crescimento do volume de dados da Era da comunicacao digital. O sinal WDM MBOFDM introduzido pela rede MORFEUS surge como candidata para fluir a demanda do trafego em uma proxima era. Contudo, existe uma serie de desafios na distribuicao do operacional dos recursos para que esse tipo de rede consiga operar de forma satisfatoria. Com este objetivo, e de fundamental importancia que a rede optica MORFEUS adote um algoritmo RWBA eficiente, responsaveis pela escolha adequada de recursos na rede para provisionar novas conexoes de forma a maximizar a probabilidade de atendimento das futuras conexoes. Dada uma requisicao de conexao, o algoritmo RWBA deve atribuir uma rota, um comprimento de onda e um conjunto de bandas capazes de atende-la. Cada no da rede e composto por componentes de extracao e insercao de banda MB-OFDM, chamados, respectivamente, de MEB (MORFEUS Extraction Block) e MIB (MORFEUS Insertion Block). Com isso um sinal WDM MB-OFDM pode ter banda(s) extraida e/ou inserida num no MORFEUS, ou ser direcionado para a fibra de saida sem alteracao. Com o intuito de otimizar o uso dos componentes MIB/MEB’s, bem como o numero total de comprimentos de onda na rede, este dissertacao propoe o uso de aspectos do projeto de topologia virtual em redes opticas no problema RWBA.
  • MARCILIO OLINTO DE OLIVEIRA LEMOS
  • Defesas Seletivas para Mitigar Ataques de Negação de Serviço às Aplicações de VoIP
  • Data: 20/02/2017
  • Hora: 10:00
  • Mostrar Resumo
  • Assim como outros servicos baseados em redes IP, aplicacoes VoIP estao vulneraveis aos perigosos ataques distribuidos de negacao de servico (DDoS). Comumente, esses ataques eram efetuados enviando inumeras requisicoes a um servidor SIP (SIP flooding), de modo a sobrecarrega-lo. Embora bastante prejudiciais, tais ataques podem ser facilmente identificados por defesas que detectam mudancas abruptas no volume de trafego da rede. Ataques mais recentes, classificados como Low-Rate, conseguem sobrepujar essas defesas, atacando aplicacoes e gerando trafego bastante similar ao de clientes normais, tornando tais defesas ineficazes. Em uma nova forma de DDoS denominada Negacao de Servico de Telefonia (TDoS - Telephony Denial of Service), atacantes vem fazendo uso de chamadas maliciosas para impedir que clientes legitimos consigam receber ou realizar chamadas. Um exemplo de TDoS Low-Rate e o Coordinated Call Attack, onde atacantes simplesmente realizam chamadas entre si para esgotar os recursos do servidor VoIP alvo. Uma defesa seletiva eficiente contra ataques Low Rate que exploram o protocolo HTTP e a ferramenta SeVen. O presente trabalho demonstra que estrategias seletivas tambem podem ser usadas com sucesso para mitigar ataques TDoS, em particular, o Coordinated Call Attack. As contribuicoes deste trabalho sao de tres tipos: (1) Uma defesa seletiva adequada para aplicacoes VoIP; (2) A Formalizacao da defesa na ferramenta Maude e conducao de simulacoes usando um verificador estatistico de modelos (PVeStA); (4) Resultados experimentais mostram que sem defesa, menos de 41% dos usuarios conseguem acessar o servico VoIP alvo, enquanto que com a defesa seletiva, a disponibilidade fica em torno de 98%.
  • EDUARDO VIEIRA QUEIROGA
  • Abordagens meta-heurísticas para clusterização de dados e segmentação de imagens
  • Data: 17/02/2017
  • Hora: 14:30
  • Mostrar Resumo
  • Muitos problemas computacionais sao considerados dificeis devido a sua natureza combinatoria. Para esses problemas, o uso de tecnicas de busca exaustiva para resolver instancias de medio e grande porte torna-se impraticavel. Quando modelados como problemas de otimizacao, alguns problemas de clusterizacao de dados e segmentacao de imagens pertencem a classe NP-Dificil e requerem um tratamento adequado por metodos heuristicos. Clusterizacao de dados e um vasto conjunto de problemas em reconhecimento de padroes e aprendizado de maquina nao-supervisionado, cujo objetivo e encontrar grupos (ou clusters) de objetos similares em uma base de dados, utilizando uma medida de similaridade preestabelecida. O problema de clusterizacao particional consiste em separar completamente os dados em conjuntos disjuntos e nao vazios. Para metodos de clusterizacao baseados em centros de cluster, minimizar a soma das distancias intracluster e um dos criterios mais utilizados. Para tratar este problema, e proposta uma abordagem baseada na meta-heuristica Continuous Greedy Randomized Adaptive Search Procedure (C-GRASP). Resultados de alta qualidade foram obtidos atraves de experimentos envolvendo o algoritmo proposto e outras meta-heuristicas da literatura. Em visao computacional, segmentacao de imagens e o processo de particionar uma imagem em regioes de interesse (conjuntos de pixels) sem que haja sobreposicao. Um dos tipos mais simples de segmentacao e a limiarizacao do histograma para imagens em nivel de cinza. O metodo de Otsu e um dos mais populares e propoe a busca pelos limiares que maximizam a variancia entre os segmentos. Para imagens com grande profundidade de cinza, tecnicas de busca exaustiva possuem alto custo computacional, uma vez que o numero de solucoes possiveis cresce exponencialmente com o aumento no numero de limiares. Dessa forma, as meta-heuristicas tem desempenhado um papel importante em encontrar limiares de boa qualidade. Neste trabalho, uma abordagem baseada em Quantum-behaved Particle Swarm Optimization (QPSO) foi investigada para limiarizacao multinivel de imagens disponiveis na literatura. Uma busca local baseada em Variable Neighborhood Descent (VND) foi proposta para acelerar a convergencia da busca pelos limiares. Alem disso, uma aplicacao especifica de segmentacao de imagens de microscopia eletronica para analise microestrutural de materiais cimenticios foi investigada, bem como a utilizacao de algoritmos em grafos para deteccao de trincas e extracao de caracteristicas de interesse.
  • ANDRÉ LUIZ FIGUEIRÊDO DE CASTRO
  • Uma Nova Abordagem para Identificação e Reconhecimento de Marcos Naturais utilizando Sensores RGB-D.
  • Data: 17/02/2017
  • Hora: 10:00
  • Mostrar Resumo
  • Com o avanco na pesquisa de algoritmos de localizacao de robos moveis, a necessidade de identificacao e reconhecimento de pontos de referencia naturais aumentou. A deteccao de marcos naturais e uma tarefa desafiadora, porque a sua aparencia pode ser diferente em forma e design e, tambem, eles sofrem influencia da iluminacao do ambiente. Como um exemplo, um algoritmo de reconhecimento de objeto 2D tipico pode nao ser capaz de lidar com a grande variedade optica de portas e escadas em corredores grandes. Em outra direcao, as melhorias recentes em sensores 3D de baixo custo (do tipo RGB-D) permitem aos robos perceber o ambiente como uma estrutura espacial 3D. Assim, usando esta nova tecnologia, um algoritmo para identificacao e reconhecimento de marco natural baseado em imagens adquiridas a partir de uma camera RGB-D e proposto. Basicamente, durante a fase de identificacao que e um primeiro passo para trabalhar com marcos, o algoritmo explora o conhecimento estrutural basico sobre os pontos de referencia, extraindo suas bordas e criando uma nuvem de pontos de borda. No proxima, a fase de reconhecimento, as arestas sao usadas com um algoritmo de reconhecimento nao supervisionado proposto on-the-fly para demonstrar a eficacia da abordagem.
  • CARLOS EDUARDO SILVA MORAIS
  • Um Sistema Anti-colisão 3D baseado no método de Campo Potencial Artificial para um robô móvel
  • Data: 16/02/2017
  • Hora: 10:30
  • Mostrar Resumo
  • Sistemas anti-colisao sao baseados na percepcao e estimacao da pose do robo movel (coordenadas e orientacao), em referencia ao ambiente em que ele se encontra. A deteccao de obstaculos, planejamento de caminhos e estimacao da pose sao fundamentais para assegurar a autonomia e a seguranca do robo, no intuito de reduzir o risco de colisao com objetos ou pessoas que dividem o mesmo espaco. Para isso, o uso de sensores RGB-Ds, tal como o Microsoft Kinect, vem se tornando popular nos ultimos anos, por ser sensores relativamente precisos e de baixo custo. Nesse trabalho nos propomos um novo algoritmo anti-colisao 3D baseado no metodo de Campo Potencial Artificial, que e capaz de fazer um robo movel passar em espacos estreitos, entre obstaculos, minimizando as oscilacoes, que e uma caracteristica comum desse tipo de metodo, durante seu deslocamento. Foi desenvolvido um sistema para plataforma robotica 'Turtlebot 2', o qual foi utilizado para realizar todos os experimentos.
  • EDISON LUIZ BONOTTO
  • Otimização por Nuvem de Partículas e Busca Tabu para o Problema da Diversidade Máxima
  • Data: 31/01/2017
  • Hora: 14:30
  • Mostrar Resumo
  • O Problema da Diversidade Maxima (MDP) e um problema da area de Otimizacao Combinatoria que tem por objetivo selecionar um numero pre-estabelecido de elementos de um dado conjunto de maneira tal que a soma das diversidades entre os elementos selecionados seja a maior possivel. O MDP pertence a classe de problemas NP-dificil, isto e, nao existe algoritmo conhecido que o resolva de forma exata em tempo polinomial. Por apresentarem uma complexidade de ordem exponencial, exigem heuristicas eficientes que fornecam resultados satisfatorios em tempos aceitaveis.Entretanto, as heuristicas nao garantem a melhor solucao. A abordagem Otimizacao por Nuvem de Particulas (PSO) simula o comportamento de um bando de passaros em voo com seu movimento localmente aleatorio, mas globalmente determinado, para encontrar maximos locais. No PSO, cada particula inicia um voo aleatorio e a cada iteracao o voo e ajustado de acordo com a sua propria experiencia e da experiencia de todas as outras particulas. Ja, a meta-heuristica Busca Tabu (TS) e um procedimento adaptativo auxiliar que utiliza uma estrutura de memoria para armazenar as solucoes geradas, ou caracteristicas destas, e guiar um algoritmo de busca local na exploracao continua dentro de um espaco de busca. A partir de uma solucao inicial, move-sede uma solucao para outra vizinha, ate que se satisfaca um determinado criterio deparada. Este trabalho propoe uma nova abordagem para a resolucao do Problema da Diversidade Maxima e esta baseada nas meta-heuristicas de Otimizacao por Nuvem de Particulas e Busca Tabu. Para a geracao das particulas iniciais utilizadas pelo PSO implementaremos uma heuristica de construcao gulosa e outra aleatoria. O algoritmo foi denominado PSO_TS. Para a validacao do metodo, os resultados encontrados sao comparados com os melhores existentes na literatura.
  • VIVIANO DE SOUSA MEDEIROS
  • Sistema Embarcado para Teste de Veículos Aéreos não Tripulados em Ambientes Controlados
  • Data: 27/01/2017
  • Hora: 14:00
  • Mostrar Resumo
  • Este trabalho propoe o desenvolvimento de um sistema embarcado compativel com a qualquer Veiculo Aereo Nao Tripulado (VANT) controlado remotamente por radio, que e capaz de realizar o controle de um VANT, possibilitando a realizacao de um voo autonomo em ambiente controlado, e monitorar e armazenar todos os dados de voo para posterior recuperacao e analise. Isto permite identificar padroes de comportamento estavel de um veiculo, identificar e quantificar ocorrencias de instabilidade e mensurar a estabilidade de voo de um VANT por meio do monitoramento e analise das suas informacoes do estado, pois permitem verificar se um veiculo apresenta comportamento compativel ou nao com esse padrao de comportamento estavel. A solucao proposta permite a replicacao de experimentos para realizar a caracterizacao de VANTs. Nas experiencias realizadas, o veiculo foi controlado utilizando os canais de radio e todos os dados de voo foram armazenados. Os disturbios foram adicionados ao veiculo durante os testes e o sistema foi capaz de detecta-los. Os resultados obtidos na presente pesquisa confirmam que e possivel identificar esse padrao de comportamento, bem como avaliar a ocorrencia de disturbios em voos que resultaram fugas a esse padrao, e diante de acidentes envolvendo VANTs, os dados armazenados do estado do veiculo podem serem usados para ajudar a elucidar as causas.
2016
Descrição
  • IRON ARAÚJO DE ALMEIDA JÚNIOR
  • Uma Nova Abordagem de Casamento de Impressões Digitais
  • Data: 12/12/2016
  • Hora: 10:00
  • Mostrar Resumo
  • O reconhecimento de individuos por meio de informacoes biometricas tem sido cada vez mais adotado nas mais diversas aplicacoes. Uma das razoes para essa escolha fundamenta-se nas informacoes biometricas serem mais dificeis de adulterar, compartilhar ou extraviar do que outros metodos de identificacao. Varias caracteristicas de individuos, fisicas e comportamentais, podem ser utilizadas em um sistema biometrico, como a impressao digital, face, voz e iris. Diversos trabalhos tem explorado esses tracos produzindo mecanismos de reconhecimento cada vez mais seguros e precisos, mas nenhum e imune a falhas e ainda ha muito o que evoluir. A impressao digital tem se mostrado um traco biometrico bastante eficaz, uma vez que sua alta precisao e seu baixo custo tornam os sistemas mais acessiveis e com resultados satisfatorios. No entanto, o reconhecimento por impressao digital ainda e um problema em aberto, visto que esses algoritmos ainda apresentam erros em sua execucao de falsa aceitacao e falsa rejeicao. Este trabalho apresenta uma nova abordagem de casamento de impressoes digitais que e uma etapa importante do processo de identificacao atraves desse traco biometrico. Diversas abordagens de comparacao entre as impressoes digitais sao aplicadas com o objetivo de aumentar a confiabilidade do metodo proposto. Para ajuste de parametros foram utilizados os Algoritmos Bioinspirados: Algoritmos Geneticos e Enxame de Particulas. A validacao deste metodo se fez atraves da avaliacao da Taxa de Erro Igual nos bancos de dados do projeto Fingerprint Verification Competition e do projeto BioPass-UFPB, totalizando seis bancos de dados. Resultados iniciais apresentaram taxas de acerto media acima de 95%, obtendo ganhos consideraveis com a juncao das diversas abordagens empregadas e otimizacoes chegando a taxas de acerto de ate 99,8%.
  • EDVIGES DE FATIMA CHAVES DE LIMA
  • Proposta de Estratégias de Colaboração em Pequenos Grupos para Plataformas de Aprendizagem a Distância
  • Data: 31/08/2016
  • Hora: 16:00
  • Mostrar Resumo
  • A Educacao a Distancia (EaD) vem como uma alternativa para suprir a necessidade de estudantes que almejam uma formacao superior, mas vivem nas regioes mais distantes e nao tem condicoes de se deslocar para as capitais ou grandes centros, sejam por condicoes de tempo e/ou dinheiro. De fato, varios governos estao usando a EaD como uma forma de socializar a educacao atraves do desenvolvimento de centros comunitarios de educacao em partes remotas de seus paises. Por outro lado, numa faixa de quatro/cinco anos, a taxa relativa de estudantes egressos na modalidade de ensino a distancia (saida / entrada) esta em torno de 30%. Infelizmente, essas altas taxas de evasao e retencao mostram que o uso da EaD em paises, como o Brasil, esta longe dos resultados esperados. Esta realidade esta motivando varios esforcos para a analise e solucoes para este problema. O presente trabalho baseia-se na premissa de que as atividades de aprendizagem colaborativa, principalmente quando realizados em pequenos grupos e apoiados por elementos que promovam a colaboracao, tem efeitos positivos, aumentando a capacidade de aquisicao de conhecimento dos estudantes, reduzindo custos e promovendo alternativas para solucionar o problema de retencao em disciplinas. Assim, apos buscar o entendimento sobre teorias/metodos colaborativos, foram definidas tres estrategias que possam ajudar a solucionar essa realidade. A partir de alguns testes de validacao com participantes, foi mensurado se as estrategias aplicadas se mostraram efetivas. Os resultados apontaram que as estrategias de colaboracao poderao ser aplicadas em um recurso computacional de modo a incentivar a colaboracao entre os participantes.
  • ALANNA CAMYLLA COÊLHO MONTEIRO
  • CONJUNTO DE DIRETRIZES DE GAMIFICAÇÃO PARA O ENSINO EM AMBIENTES VIRTUAIS DE APRENDIZAGEM
  • Data: 31/08/2016
  • Hora: 10:00
  • Mostrar Resumo
  • Gamificacao e a utilizacao de elementos de jogos em cenarios que nao sao jogos. Por ser uma tecnica recente e que tem crescido nos ultimos cinco anos, surge a necessidade de se definir um conjunto de diretrizes que apoiem o processo de ensino com o auxilio da gamificacao. Em virtude disso, esse trabalho apresenta uma pesquisa onde se propoe identificar praticas gamificadas no ensino, formando assim um guia de desenvolvimento das melhores praticas da gamificacao tendo como base seu uso em ambientes virtuais de aprendizagem. Esta pesquisa esta dividida em quatro etapas. Sendo a primeira um mapeamento sistematico para aprofundamento em Gamificacao. A segunda etapa uma pesquisa de campo para conhecer conhecer as reais necessidades dos professores que utilizam a gamificacao no ensino. A terceira etapa um mapeamento sistematico para conhecer trabalhos que tenham a proposta de guiar aplicacoes educacionais e identificar boas praticas para uso da gamificacao. Por fim, a quarta etapa avalia o guia elaborado. O resultado desta pesquisa foi a criacao de uma guia voltado para gamificacao em ambiente virtual de aprendizagem, intitulado de GamiGuiando. Contribuindo para professores/instrutores que queiram aplicar a gamificacao no seu processo de ensino.
  • DIEGO LOPES MARQUES DA SILVA
  • Um Modelo de Jogador Baseado em Estilos de Aprendizagem para Promover Feedback Adaptativo aos Jogadores
  • Data: 31/08/2016
  • Hora: 08:00
  • Mostrar Resumo
  • Cada individuo possui um perfil diferente que influencia na forma de como ele organiza e processa informacao. Esse perfil pode ser descrito como estilo de aprendizagem onde cada pessoa aprende um determinado assunto ou conteudo de acordo com suas diferencas individuais, contribuindo assim para a construcao do processo de ensino/aprendizagem. Alem disso, tem sido utilizados e reconhecidos como sendo um fator humano importante, e que afeta diretamente o desempenho de aprendizagem de cada aluno. Esse e um dos motivos pelo qual os jogos educativos podem ser tao poderosos no que diz respeito ao processo de ensino/aprendizagem, uma vez que os alunos podem aprender brincando e consequentemente unindo a isso a adaptacao do jogo de acordo com o seu perfil potencializando a aprendizagem. Pesquisas na area da educacao sugerem o uso de jogos no processo de ensino/aprendizagem, pois podem engajar o estudante reforcando conceitos atraves da pratica, favorecendo o desenvolvimento da logica, da analise, da estrategia, e ate da memoria do jogador. Contudo, o potencial desses jogos nem sempre e aproveitado da melhor maneira, como, por exemplo, a partir da disponibilizacao de feedbacks que fornecem suporte no processo de educacao e de motivacao, alem de ser uma caracteristica importante de jogos educativos. Ademais, tem como objetivo aumentar o esforco, o desempenho e a motivacao do aluno, fornecendo a eles informacao util e imediata sobre seu desempenho. De maneira geral, este trabalho apresenta resultados de uma pesquisa que tem como finalidade descrever um modelo baseado em estilos de aprendizagem, a fim de ser utilizado em jogos educativos e, a partir dele, promover feedback adaptativo ao estilo de cada usuario. Este modelo foi implementado em um jogo educativo no estilo perguntas e respostas, denominado MyQuimica, que visa apoiar no processo de ensino/aprendizagem de quimica. Mais precisamente, o jogo procura auxiliar no aprendizado das nomenclaturas quimicas e ajudar na familiarizacao dos alunos com a tabela periodica. Os testes foram realizados com um total de 65 alunos de escolas publicas de Joao Pessoa, do 1º e 2º anos do Ensino Medio.
  • JOSÉ GOMES QUARESMA FILHO
  • Uma Abordagem SDWN para o Gereciamento do Processo de Handoff nas Redes WiFi
  • Data: 31/08/2016
  • Hora: 07:00
  • Mostrar Resumo
  • O desempenho do handoff nas redes WiFi e fator preponderante para o uso de aplicacoes multimidias quando os usuarios estao em movimento. Normalmente o processo de handoff e iniciado pelas estacoes, que ao se desconectarem de um Access Point (AP) iniciam uma varredura nos canais existentes buscando outros APs disponiveis. Este processo acontece de forma suave, porem na ordem de segundos, o que inviabiliza o uso de aplicacoes em tempo real. Assim sendo, e necessario a criacao de mecanismos mais eficientes para gerenciar este processo provendo a Qualidade de Servico (QoS) necessaria para as aplicacoes. Este trabalho apresenta uma proposta para melhorar o desempenho do processo de handoff utilizando uma abordagem baseada em Software Defined Wireless Network (SDWN) em redes WLAN.
  • FRANCISCO DE ASSIS SIQUEIRA JUNIOR
  • Seleção de Sensores em Redes de Sensores Sem Fio Heterogêneas para Cidades Inteligentes
  • Data: 30/08/2016
  • Hora: 09:00
  • Mostrar Resumo
  • Apesar de ser uma tecnologia ja consolidada, pesquisas em Redes de Sensores Sem Fio (RSSFs) vem passando por desafios devido a sua intrinseca relacao com os paradigmas de Cidades Inteligentes e Internet das Coisas (Internet of Things - IoT). Tradicionalmente, as RSSFs sao implantadas e utilizadas para atender a uma unica aplicacao e sao compostas por sensores com as mesmas caracteristicas fisicas. Contudo, ao se considerar ambientes inteligentes, onde varios objetos podem coletar dados, desencadear acoes e interagir entre si de forma a prover servicos sofisticados, e facil perceber a heterogeneidade dos tipos de aplicacoes que podem realizar requisicoes em tais ambientes. Alem disso, e real a possibilidade de interacao entre diferentes tipos de equipamentos, como por exemplo, sensores com diferentes caracteristicas fisicas, criando assim uma RSSF Heterogenea (RSSFH). Por este motivo, este trabalho objetiva contribuir para a gerencia de RSSFHs em ambientes de Cidades Inteligentes ao propor uma abordagem para selecao dinamica e sob-demanda de sensores, levando em consideracao as caracteristicas fisicas dos sensores e as demandas das aplicacoes requisitantes. Esta abordagem foi utilizada no framework POlicy-based Sensor SElection in Heterogeneous Wireless Sensor Network (POSSE-HWSN), o qual foi implementado para validar a proposta. Testes realizados demonstram que atraves da utilizacao de POSSE-HWSN foi possivel escolher os sensores com os recursos de hardware mais adequados para atender a cada aplicacao, melhorando assim a eficacia da selecao.
  • OZONIAS DE OLIVEIRA BRITO JÚNIOR
  • Abordagens para avaliação de software educativo e sua coerência com os modelos de qualidade de software
  • Data: 26/08/2016
  • Hora: 14:00
  • Mostrar Resumo
  • Abordagens para avaliacao de software educativo e sua coerencia com os modelos de qualidade de software
  • FELIPE OLIVEIRA MIRANDA CUNHA
  • Uma Estratégia Baseada em Perfis para Suporte à Formação de Grupos de Aprendizagem em EAD
  • Data: 25/08/2016
  • Hora: 14:00
  • Mostrar Resumo
  • A procura por estrategias de ensino e de aprendizagem que promovam e fortalecam a colaboracao na Educacao a Distancia tem sido tema de crescente destaque na literatura. Pesquisas tem investigado abordagens de formacao de grupos para a aprendizagem colaborativa a distancia, o que tem permitido a comunidade cientifico-academica experimentar diferentes maneiras de atribuir estudantes em grupos. Entretanto, a literatura pouco tem se dedicado a investigar as contribuicoes de tutores da Educacao a Distancia para formacao de grupos. Alem disso, definir uma abordagem de formacao de grupos de forma a garantir que a maioria das preferencias seja atendida nao e uma tarefa pedagogicamente facil, pois as caracteristicas e as necessidades de cada turma podem variar. Diante desse contexto, este trabalho objetiva definir uma abordagem baseada em perfis de grupos, especificados a partir de preferencias de tutores a distancia, para apoiar o processo de formacao de grupos de aprendizagem. Realizou-se estudo de revisao sistematica na literatura para identificar as melhores praticas em abordagens para formacao de grupos. Investigou-se o perfil e as preferencias dos tutores do curso de Licenciatura em Computacao da Universidade Federal da Paraiba. Especificou-se perfis de grupos para posterior experimento em agrupamento homogeneo por Polo, agrupamento heterogeneo e complementar por habilidades em programacao a partir da modelagem matematica e implementacao de algoritmo de agrupamento. Realizou-se, por fim, estudo de caso com grupos de estudantes para avaliar a abordagem proposta e analisar o desempenho deles em atividade colaborativa a distancia. Os resultados evidenciam que as preferencias de tutores a distancia permitiram a definicao de uma abordagem de formacao de grupos coerente ao contexto do dominio do presente estudo. O agrupamento permitiu criar grupos homogeneos, heterogeneos e complementares a partir de dados educacionais da plataforma Moodle. Foi aplicada a estrategia de restricao de tamanho sobre uma particao resultante do algoritmo K-medias, possibilitando formar grupos homogeneos de tamanhos uniformes. Verificou-se um aumento no desempenho em 65,6% dos estudantes em atividade em grupo, quando comparado ao desempenho em atividade individual.
  • ITALO RAPHAEL AMADOR RESENDE
  • Uma Proposta para Alavancagem do Sensoriamento Urbano Preliminar Usando Coletores de Dados
  • Data: 23/08/2016
  • Hora: 16:00
  • Mostrar Resumo
  • Este estudo sugere o uso de uma abordagem mais pragmatica para a aplicacao do sensoriamento urbano, contribuindo com uma oferta inicial de bases de dados abertos no que diz respeito ao contexto de cidades inteligentes. As abordagens atualmente utilizadas para a instrumentacao das cidades normalmente se baseiam em sensores fixos e apresentam desafios referentes a energizacao, seguranca, manutencao, comunicacao dos sensores com altos custos envolvidos nos projetos, Para tanto, visando a diminuicao da complexidade e dos custos observados nos modelos atuais, propomos a utilizacao de agentes de mobilidade ja existentes (como onibus metropolitanos, por exemplo) para proporcionar mobilidade a sensores tradicionais. Para tanto, visando a diminuicao da complexidade e de custos observados nos modelos atuais, propomos a utilizacao de um agente de mobilidade ja existente (como onibus metropolitanos, por exemplo) para proporcionar mobilidade a sensores tradicionais. Acreditamos que esta estrategia possa ajudar a superar alguns dos obstaculos existentes e permitir um sensoriamento preliminar das cidades de forma mais acessivel. Para avaliar a viabilidade da abordagem proposta, uma serie de experimentos foi conduzida utilizando-se microestacoes meteorologicas posicionadas de forma estatica e tambem em movimento. Uma das frentes de avaliacao foi comparar a variacao das medias de grandezas fisicas obtidas atraves de leituras frequentes versus leituras mais esporadicas, coletadas por sensores estacionarios. Em seguida, os resultados obtidos foram comparadas com amostras coletadas de forma movel com a utilizacao de agentes de mobilidade equipados com sensores e atuando como coletores de dados urbanos. Os resultados apontam que a abordagem e bastante promissora e pode ser usada de forma combinada com estrategias tradicionais, como por exemplo na deteccao inicial de ilhas de calor, poluicao ou congestionamentos que podem ser, posteriormente, monitoradas com equipamentos de maior precisao.
  • ITALO RAPHAEL AMADOR RESENDE
  • Uma Proposta para Alavancagem do Sensoriamento Urbano Preliminar Usando Coletores de Dados
  • Data: 23/08/2016
  • Hora: 16:00
  • Mostrar Resumo
  • Este estudo sugere o uso de uma abordagem mais pragmatica para a aplicacao do sensoriamento urbano, contribuindo com uma oferta inicial de bases de dados abertos no que diz respeito ao contexto de cidades inteligentes. As abordagens atualmente utilizadas para a instrumentacao das cidades normalmente se baseiam em sensores fixos e apresentam desafios referentes a energizacao, seguranca, manutencao, comunicacao dos sensores com altos custos envolvidos nos projetos, Para tanto, visando a diminuicao da complexidade e dos custos observados nos modelos atuais, propomos a utilizacao de agentes de mobilidade ja existentes (como onibus metropolitanos, por exemplo) para proporcionar mobilidade a sensores tradicionais. Para tanto, visando a diminuicao da complexidade e de custos observados nos modelos atuais, propomos a utilizacao de um agente de mobilidade ja existente (como onibus metropolitanos, por exemplo) para proporcionar mobilidade a sensores tradicionais. Acreditamos que esta estrategia possa ajudar a superar alguns dos obstaculos existentes e permitir um sensoriamento preliminar das cidades de forma mais acessivel. Para avaliar a viabilidade da abordagem proposta, uma serie de experimentos foi conduzida utilizando-se microestacoes meteorologicas posicionadas de forma estatica e tambem em movimento. Uma das frentes de avaliacao foi comparar a variacao das medias de grandezas fisicas obtidas atraves de leituras frequentes versus leituras mais esporadicas, coletadas por sensores estacionarios. Em seguida, os resultados obtidos foram comparadas com amostras coletadas de forma movel com a utilizacao de agentes de mobilidade equipados com sensores e atuando como coletores de dados urbanos. Os resultados apontam que a abordagem e bastante promissora e pode ser usada de forma combinada com estrategias tradicionais, como por exemplo na deteccao inicial de ilhas de calor, poluicao ou congestionamentos que podem ser, posteriormente, monitoradas com equipamentos de maior precisao.
  • ALYSSON ALVES DE LIMA
  • SELEÇÃO AUTOMATIZADA DE SERVIÇOS WEB BASEADA EM MÉTRICAS FUNCIONAIS E ESTRUTURAIS
  • Data: 23/08/2016
  • Hora: 14:00
  • Mostrar Resumo
  • Engenharia de Software e uma disciplina que engloba todos os aspectos da producao de um sistema de software, incluindo desde os estagios iniciais da especificacao do sistema ate sua manutencao, quando o sistema ja esta sendo utilizado. Uma area de estudo bastante interessante da Engenharia de Software e o reuso de software, que impacta positivamente na reducao do tempo, dos custos e dos riscos provenientes de um processo de desenvolvimento de software. Portanto, e possivel afirmar que o reuso de software melhora, nao apenas o processo de desenvolvimento de software, mas tambem o proprio produto. Uma das principais abordagens de reuso de software e o desenvolvimento orientado a servicos, que adota o paradigma de Arquitetura Orientada a Servicos (SOA – Service Oriented Architecture). No paradigma SOA, servicos representam uma evolucao natural do desenvolvimento baseado em componentes, e, portanto, podem ser definidos como componentes de software de baixo acoplamento, reusaveis, que encapsulam funcionalidades discretas, que podem ser distribuidos e acessados remotamente de forma programatica. E importante destacar que, enquanto SOA e um paradigma arquitetural para desenvolvimento de sistemas de software, Servicos Web (Web Services) representam a tecnologia existente mais amplamente adotada para implementar SOA explorando protocolos baseados em padroes internet e em XML. Com o crescimento do mercado e utilizacao dos servicos web, a tendencia e sempre aumentar o numero de servicos disponiveis para montagem de aplicacoes em diferentes contextos, tornando impraticavel a tarefa de selecionar de forma manual os servicos requeridos para compor um sistema de software. Consequentemente, e possivel afirmar que o esforco necessario para selecionar os servicos requeridos tende a aumentar cada vez mais, gerando um problema com um grande e complexo espaco de busca, tornando necessaria a automatizacao do processo de selecao baseada em tecnicas de busca metaheuristica. Neste contexto, o trabalho proposto visa automatizar o processo de selecao de servicos web utilizando tecnicas da Engenharia de Software Baseada em Buscas, cuja estrategia de selecao e orientada por metricas funcionais e estruturais, que tem o proposito de avaliar a similaridade entre as especificacoes e as respectivas implementacoes dos servicos candidatos, bem como as suas dependencias, reduzindo assim o esforco de adaptacao e integracao de servicos web desenvolvidos por fornecedores distintos.
  • MARIA JANE DE QUEIROZ
  • UMA ONTOLOGIA PARA PRESERVAÇÃO DE PRIVACIDADE NA PUBLICAÇÃO DE DADOS DO SETOR PÚBLICO
  • Data: 28/07/2016
  • Hora: 14:00
  • Mostrar Resumo
  • Com o objetivo de combater a corrupcao e ampliar a participacao popular nas decisoes governamentais, paises – dentre eles, o Brasil – tem aderido ao movimento Governo Aberto, disponibilizando informacoes relativas a administracao publica, em formato aberto, em sitios na Internet. Essa forma de abertura de dados motiva questionamentos com relacao ao tratamento dispensado aos dados pessoais dos cidadaos. Modelos e tecnicas de preservacao de privacidade existentes podem ser aplicados para dificultar a violacao da privacidade individual por descobertas feitas em bases de dados. No entanto, atualmente as bases de dados sao anonimizadas de forma ineficaz, como e o caso dos microdados do Censo da Educacao Superior brasileira (referente ao ano de 2013), analisados em um estudo de caso apresentado neste trabalho. Tal analise possibilitou a identificacao unica de uma docente, indicando a vulnerabilidade a qual essa base de dados esta exposta. Com os objetivos de representar metodos de anonimizacao sistematica; padronizar opcoes de publicacao; unificar semanticamente os conceitos referenciados por diferentes termos; auxiliar a aplicacao de metodos sistematicos de anonimizacao por pessoas sem expertise na area e possibilitar a interoperabilidade de configuracoes entre ferramentas diferentes, optou-se pela criacao de uma ontologia denominada Ontologia para Publicacao de Dados com Preservacao de Privacidade. Apos seu desenvolvimento, esta ontologia foi utilizada para prover sugestoes de metodos para a anonimizacao dos microdados do Censo da Educacao Superior. Tais sugestoes foram utilizadas em uma ferramenta de anonimizacao existente (chamada ARX) e os microdados foram anonimizados, comprovando a eficacia da aplicacao dos metodos sistematicos de anonimizacao sugeridos para dificultar novas descobertas a partir dos dados anonimizados.
  • KATYANNE FARIAS DE ARAUJO
  • Formulações matemáticas para o problema de sequenciamento de lotes com penalidades por atraso
  • Data: 04/07/2016
  • Hora: 15:00
  • Mostrar Resumo
  • Esta dissertacao trata do problema de sequenciamento de lotes da producao em uma maquina com penalidades por atraso. Trata-se de um problema NP-dificil, em que cada tarefa esta associada a um tempo de processamento, uma data de liberacao, uma data de entrega, um tamanho e um nivel de prioridade. O objetivo e determinar o agrupamento de tarefas em lotes e a sequencia que minimize o total de atrasos ponderados, onde o atraso de uma tarefa e dado pelo seu tempo de termino menos o seu prazo de entrega, caso o processamento da tarefa seja finalizado apos sua data de entrega, e e igual a zero, caso contrario. Este problema pode ser referenciado como $1|batch, r_j, s_j, compt|\sum w_jT_j$. Quando todas as tarefas estao disponiveis para serem processadas no instante de tempo zero, o problema e usualmente representado por $1|batch, r_j, compt|\sum w_jT_j$. Estes sao problemas ainda pouco investigados na literatura, alem de abordar uma grande quantidade de variantes. Existem poucos trabalhos envolvendo a aplicacao de metodos exatos para a resolucao de ambos. Apenas uma formulacao matematica foi identificada na literatura para estes problemas. Dessa forma, quatro formulacoes matematicas com variaveis indexadas no tempo foram desenvolvidas para resolver os problemas mencionados anteriormente, onde uma delas e capaz de tratar de ambos os problemas. Os resultados alcancados por meio dos modelos desenvolvidos foram comparados com os resultados do modelo disponivel na literatura. Tais resultados computacionais demonstram que dois dos modelos propostos obtiveram desempenho superior tanto em termos de qualidade da solucao, em especial em relacao aos limites inferiores alcancados, quanto em numeros de nos abertos e quantidade de solucoes otimas comprovadas.
  • ANIELTON JOSE DO NASCIMENTO
  • Uso do Processo de Avaliação Mútua aliado a Conceitos de Gamificação como suporte ao Estudo Colaborativo em Ambientes de EaD
  • Data: 27/06/2016
  • Hora: 14:00
  • Mostrar Resumo
  • Um dos problemas da educacao a distancia e a falta de comunicacao e colaboracao entre os alunos, o que e causado pricipalmente pela distancia fisica entre eles. Pesquisas em educacao mostram que a colaboracao entre alunos, onde eles se ajudam no entendimento do conteudo educacional, e uma das partes fundamentais do processo de aprendizagem. Ambientes virtuais de aprendizagem, como o Moodle, disponibilizam algums recursos como Foruns e Chats para suporte a colaboracao. Porem, tais recursos sao insuficientes para motivar tal colaboracao. Este e outros fatores tem causado um grande indice de retencao e evasao nos cursos a distancia, uma vez que os estudantes nao conseguem se adaptar as caracteristicas desta modalidade de ensino. Este trabalho utiliza conceitos de avaliacao mutua, integrados a elementos de gamificacao, como forma de motivar a colaboracao de estudantes em pequenos grupos de estudo. De fato, a literatura indica que processos colaborativos sao mais eficientes em grupos compostos por 4 ou 5 estudantes. Uma das principais contribuicoes do trabalho e o desenvolvimento de um processo de avaliacao mutua automatico, o qual pode ser integrado ao processo de avaliacao mutua feita pelos alunos, de modo que os resultados das avaliacoes sejam mais confiaveis. A validacao da proposta foi feita com turmas do curso de Graduacao em Computacao da UFPB virtual. Os resultados mostram que, alem de garantir uma maior seguranca no processo de avaliacao, tambem e possivel verificar grandes dispcrepancias neste processo, assim como gerar diferentes formas de comparacao entre o desempenho de alunos e grupos de alunos, considerando diferentes atributos propostos neste trabalho.
  • LUCAS MARQUES DA CUNHA
  • RECONHECIMENTO DE ADULTERAÇÕES EM IMAGENS DIGITAIS: UMA ABORDAGEM PASSIVA
  • Data: 22/06/2016
  • Hora: 14:00
  • Mostrar Resumo
  • A criacao e comercializacao de softwares de edicao de imagens permitiu que pessoas leigas pudessem realizar qualquer tipo de manipulacao em imagens digitais. Em um cenario judicial em que autenticidade e integridade dos dados sao cruciais, ha necessidade de tecnicas que permitam promover tais atributos. A analise forense em imagens digitais busca atraves de metodos cientificos computacionais, como a analise do sensor do dispositivo e artefatos JPEG, reconhecer a presenca ou ausencia desses atributos. O presente trabalho apresenta uma Abordagem Passiva para o Reconhecimento de adulteracoes em imagens digitais com e sem compressao JPEG utilizando duas abordagens. A primeira abordagem baseia-se na tecnica de analise da vizinhanca-4 de um pixel que pode ser classificado como interpolado ou nao interpolado. A partir dessa analise obtem-se as informacoes sobre o padrao CFA (Color Filter Array) de modo a investigar a autenticidade e integridade de imagens com baixa ou nenhuma compressao de acordo com a classificacao incorreta dos pixels. A segunda abordagem baseiase na Analise da Inconsistencia do BAG (Block Artifact Grid) de imagens com alta compressao gerado a partir de tecnicas de adulteracao, tais como composicao e clonagem. O BAG da imagem trata-se da demarcacao dos blocos JPEG. Alem disso, foram definidas tecnicas de segmentacao para localizacao precisa da regiao adulterada. O metodo seleciona uma das abordagens a partir do valor da taxa de compressao da imagem. A analise dos resultados e feita a partir dos valores de acuracia, sensibilidade, especificidade e precisao. As taxas de acuracia variaram de 85,1% a 95,4% e com taxas de precisao entre 41,7% a 74,3%. Para as taxas de sensibilidade obteve-se valores entre 32,3% a 82,2% e para especificidade valores entre 85,9% a 99,2% para uma base de dados composta por 960 imagens interpoladas por algoritmos distintos e adulteradas por tecnicas de composicao e clonagem. Os metodos descritos na literatura apresentam um escopo limitado referente aos formatos das imagens que foram testadas e ao modo como aferem a eficiencia de suas tecnicas. A abordagem proposta neste trabalho distingue-se dessas tecnicas apresentando um escopo com maior abragencia nos quesitos mencionados, englobando imagens com e sem compressao, alem de aferir a eficiencia a partir de metricas capazes de comprovar as hipoteses levantadas ao longo da pesquisa.
  • FÁBIO CRUZ BARBOSA DE ALBUQUERQUE
  • Uma abordagem heurística para um problema de rebalanceamento estático em sistemas de compartilhamento de bicicletas.
  • Data: 20/05/2016
  • Hora: 14:00
  • Mostrar Resumo
  • O problema do rebalanceamento estatico de bicicletas (static bike rebalancing problem, SBRP) e um recente problema motivado pela tarefa de reposicionar bicicletas entre estacoes em um sistema self-service de compartilhamento de bicicletas. Este problema pode ser visto como uma variante do problema do roteamento de veiculos com coleta e entrega de um unico tipo de produto, onde realizar multiplas visitas a cada estacao e permitido, i.e., a demanda da estacao pode ser fracionada. Alem disso, um veiculo pode descarregar sua carga temporariamente em uma estacao, deixando-a em excesso, ou, de maneira analoga, coletar mais bicicletas de uma estacao (ate mesmo todas elas), deixando-a em falta. Em ambos os casos sao necessarias visitas adicionais para satisfazer as demandas reais de cada estacao. Este trabalho lida com um caso particular do SBRP, em que apenas um veiculo esta disponivel e o objetivo e encontrar uma rota de custo minimo que satisfaca as demandas de todas as estacoes e nao viole os limites de carga minimo (zero) e maximo (capacidade do veiculo) durante a rota. Portanto, o numero de bicicletas a serem coletadas ou entregues em cada estacao deve ser determinado apropriadamente a respeitar tais restricoes. Trata-se de um problema NP-Dificil uma vez que contem outros problemas da mesma classe como casos particulares, logo, o uso de metodos exatos para resolve-lo e intratavel para instancias maiores. Diversos metodos foram propostos por outros autores, fornecendo valores otimos para instancias pequenas e medias, no entanto, nenhum trabalho resolveu de maneira consistente instancias com mais de 60 estacoes. O algoritmo proposto para resolver o problema e baseado na meta-heuristica iterated local search (ILS) combinada com o procedimento de busca local de descida em vizinhanca variavel com ordenacao aleatoria (variable neighborhood descent with random neighborhood ordering, RVND). O algoritmo foi testado em 980 instancias de referencia na literatura e os resultados obtidos sao bastante competitivos quando comparados com outros metodos existentes. Alem disso, o metodo foi capaz de encontrar a maioria das solucoes otimas conhecidas e tambem melhorar os resultados em um numero de instancias abertas.
  • SIDNEY PATRÉZIO REINALDO CAMPOS
  • EducaDRC: Referatório Semântico de Objetos de Aprendizagem sobre a Doença Renal Crônica Direcionado para Profissionais de Atenção Primária à Saúde
  • Data: 29/02/2016
  • Hora: 14:00
  • Mostrar Resumo
  • A problematização resultante da falta de monitoramento dos indicadores da Doença Renal Crônica (DRC) por parte de profissionais de Atenção Primária à Saúde (APS) lançou um alerta para a necessidade de criação de ações educativas capazes de inseri-los no tratamento da DRC, motivando esta pesquisa para o desenvolvimento de um referatório semântico de objetos de aprendizagem relacionados à doença renal crônica, o EducaDRC. Um referatório é responsável por fornecer acesso a informações (metadados) que descrevem recursos disponíveis na Web e, consequentemente, aponta para os repositórios que detêm estes recursos. Direcionado para profissionais de APS, o principal objetivo do EducaDRC é facilitar e promover o acesso à informação relacionada à DRC. Considerando este aspecto, fez-se necessária a modelagem semântica deste tipo de informação a partir da representação de um subdomínio da Doença Renal Crônica em uma ontologia com a finalidade de facilitar o processo automático por máquina. Além disso, com o objetivo de facilitar e promover o acesso a recursos digitais orientados para aprendizagem, também conhecidos como objetos de aprendizagem, que têm conteúdo intelectual relacionado com a DRC e estão dispostos em diferentes repositórios da Web, esta pesquisa cria uma abordagem para gestão semântica destes recursos. A finalidade é compor, juntamente com a ontologia, uma base de conhecimento sobre DRC para ser utilizada como fonte de informação para o EducaDRC. Dessa forma, o EducaDRC se firmou como um software educacional capaz de fornecer e evidenciar conceitos, relacionados à DRC, que são indispensáveis para que o profissional de APS consiga observar os indicadores da doença em pacientes que eles assistem. Além de permitir que o profissional amplie seus conhecimentos a partir de um acervo de objetos de aprendizagem, categorizados de acordo com diferentes conceitos do domínio e descritos por metadados que expõem suas características.
  • YUGO MANGUEIRA DE ALENCAR
  • UM FRAMEWORK PARA DESENVOLVIMENTO DE OBJETOS DE APRENDIZAGEM PARA A EDUCAÇÃO A DISTÂNCIA: OAEDITOR
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 29/02/2016
  • Hora: 14:00
  • Mostrar Resumo
  • A educação a distância vem crescendo em um ritmo acelerado nesses últimos anos, com isso as tecnologias voltadas para essa modalidade de ensino estão sempre em constate evolução, buscando melhorar a qualidade do ensino. No entanto, essa modalidade de ensino, necessita de um suporte pedagógico adequado em relação ao processo de aprendizagem. Nesse contexto, este trabalho apresenta um conjunto de novas funcionalidades para o OAEditor, um framework integrado ao AVA Moodle, que fornece suporte a professores no processo de construção de OAs adaptativos, sendo desnecessário conhecimentos elevados na área tecnológica por parte dos docentes. Os OAs produzidos pelo OAEditor são feitos em forma de hiperdocumentos educacionais estruturados como grafos conceituais, onde os nós do grafo denotam os conceitos, que serão representados por links no hiperdocumento, e as arestas denotam relacionamento entre esses conceitos. O conjunto de novas funcionalidades para OAEditor visa dar um maior suporte para o docente e discente com relação a questão feedback, critério este que não é muito explorado em ferramentas de sistemas adaptativos e que também é um ponto crítico na Educação a Distância, pois ocorre sem o uso de recursos não verbais (como por exemplo, as expressões e a entonação). Devemos saber que o professor é peça indispensável no processo de educação, diante disto, é de suma importância disponibilizar ferramentas de feedback que possibilitem o acompanhamento contínuo do desempenho do aluno, fornecendo assim conhecimentos suficientes para aprimorar seus materiais instrucionais.
  • DIEGO VÉRAS DE QUEIROZ
  • Simulação Realista de Redes de Sensores sem Fio Industriais
  • Data: 29/02/2016
  • Hora: 10:00
  • Mostrar Resumo
  • Uma Rede de Sensores sem Fio (RSSF) pode ser caracterizada pela utilização de nós sensores em variados ambientes para as mais diversas aplicações, por exemplo, para monitoramento e controle em ambiente industrial. O uso de RSSF para implementar aplicações industriais precisa lidar com problemas típicos das redes sem fio, como alta atenuação e obstruções. Nesses ambientes, diferenças nas características dos canais podem ser observadas dado o seu perfil de multipercurso. Mudanças na topologia também podem provocar mudanças nas características dos canais ao longo do tempo, podendo causar diferença no valor médio da potência recebida. Uma alternativa para lidar com isso e com a variação da qualidade dos canais é o desenvolvimento de protocolos que utilizam múltiplos canais. Seu uso permite, por exemplo, alcançar uma melhor utilização do canal, aumentando a capacidade de transmissão da rede. No entanto, existe uma dificuldade em avaliar e comparar as diferentes abordagens devido à carência de simuladores que apresentem modelos mais precisos. Para avaliar os reais benefícios desses protocolos deve-se levar em consideração um modelo realista de propagação. Esse trabalho apresenta um modelo realista de simulação que captura os efeitos de desvanecimento em larga escala, atenuação em pequena escala, sombreamento log-normal, as características não-estacionárias do canal em longos períodos de tempo, e as características distintas dos diferentes canais do padrão IEEE 802.15.4. O modelo foi então integrado ao simulador de eventos discretos de código aberto Castalia e testado, comparando-o com o modelo estacionário padrão do próprio simulador. A partir da integração, o protocolo Tree-based Multi-Channel Protocol (TMCP) foi implementado e avaliado utilizando o modelo proposto.
  • YÚRIKA SATÔ NÓBREGA
  • Proposta de um Modelo de Objeto Digital de Aprendizagem para Aprendizagem da LIBRAS Apoiado em Ferramentas Automáticas
  • Data: 29/02/2016
  • Hora: 10:00
  • Mostrar Resumo
  • O presente trabalho propõe um ODA (Objeto Digital de Aprendizagem) para a Língua Brasileira de Sinais (Libras) apoiados em ferramentas automáticas que utilizam um avatar 3D para sinalizar. O objetivo é facilitar e dinamizar a aprendizagem da Libras, tendo como respaldo os dispositivos legais no 10.436/02 e no 5.626/05, da necessidade visual, gestual e dinâmica próprias da língua. O trabalho se desenvolve em aspectos teóricos e conceituais da Libras e de Objeto Digitais de Aprendizagem, bem como destaca os trabalhos relacionados à proposta, e por fim, apresenta os testes, os resultados, as consdiderações e trabalhos futuros.
  • RIVALDO DO RAMOS SIMAO
  • Estudo de Resiliência em Comunicação Entre Sistemas Multi-Rôbos Utilizando HLA.
  • Data: 29/02/2016
  • Hora: 09:00
  • Mostrar Resumo
  • A cooperacao em um um sistema mutirrobos tem se tornado um desafio a ser superado e se transformado em um dos maiores incentivos para os pesquisadores desta area, pois a comunicacao se apresenta como um dos mais importantes requisitos. O objetivo deste trabalho foi de investigar a viabilidade do uso do ambiente de simulacao distribuida chamado de HLA, no processo de comunicacao entre membros de um sistema com tres e cinco computadores, simulando um sistema multirrobos, de modo a verificar seu comportamento, quando um deles e substituido por outro com poder de processamento reduzido. Assim, uma nova abordagem de comunicacao com base no middleware HLA foi desenvolvida. Nessa nova abordagem, os robos adaptam sua taxa de transmissao com base no desempenho de outros robos. Experimentos demonstraram que os requisitos de tempo real de uma aplicacao de futebol de robos foram alcancados usando-se essa abordagem, o que aponta para uma nova possibilidade de comunicacao em tempo real entre robos. Diante do exposto, em um dos experimentos, foi feita uma comparacao direta entre o middleware RTDB e a abordagem apresentada. Constatou-se que o HLA adaptativo, em alguns cenarios, e mais eficiente entre 5% e 12% do que o RTDB.
  • ESAU ALENCAR TAVARES
  • UMA ABORDAGEM PARA SUPORTE À DECISÃO CLÍNICA BASEADA EM SEMÂNTICA NO DOMÍNIO DA NEFROLOGIA
  • Data: 29/02/2016
  • Hora: 08:00
  • Mostrar Resumo
  • Na área da saúde, as orientações e diretrizes para a prática clínica estão sendo projetadas para melhorar a qualidade dos cuidados em saúde e diminuir o uso de intervenções desnecessárias, ineficazes ou prejudiciais. Neste ambiente, abordagens de Suporte à Decisão Clínica, utilizando como base de conhecimento a representação da informação contida nessas diretrizes, podem usufruir de um guia para fazer inferências com base nas decisões, ações e recomendações clínicas validadas, auxiliando com qualidade a prestação de cuidados em saúde. A identificação e o manejo nefrológico adequado de pacientes com Doença Renal Crônica (DRC) têm sido reconhecidos como importantes oportunidades de impedir a sua progressão e desfechos desfavoráveis, como a mortalidade. Como estas situações são geralmente de evolução progressiva, insidiosa e assintomática, existem dificuldades relacionadas ao seu diagnóstico, estadiamento e encaminhamentos, sobrecarregando o trabalho dos médicos especialistas. Diante desses fatos, este trabalho teve como objetivo propor o desenvolvimento de uma abordagem de Suporte à Decisão Clínica, baseada em semântica e raciocínio, para auxiliar os médicos especialistas da área e os que trabalham na Atenção Primária da Saúde, na tomada de decisões relacionada ao diagnóstico e estadiamento da DRC, buscando assim dar suporte ao encaminhamento apropriado para os especialistas em nefrologia. A abordagem propôs a criação e o uso de uma base de conhecimento baseada na OntoDecideDRC, uma ontologia de domínio que representou os conhecimentos relacionados aos propósitos da abordagem. Essa abordagem foi então implementada na forma de um protótipo de web service onde foram aplicados métodos de avaliação com a ajuda de uma médica especialista na área, através da utilização de questões de competência e casos clínicos. Este estudo contribui para a compreensão dos métodos relacionados ao desenvolvimento de abordagens de suporte à decisão utilizando como base de conhecimento uma ontologia na área da saúde. Ao final, essa abordagem fornece informações sobre recomendações válidas, a fim de promover a qualidade nos cuidados médicos relacionados a doença em estudo. Essas informação estão em um formato capaz de ser compartilhado, atualizado e reutilizado por outros sistema ou abordagens na área.
  • ESTEVÃO DOMINGOS SOARES DE OLIVEIRA
  • MODELO DE DIAGNÓSTICO DE DIFICULDADES DE APRENDIZAGEM ORIENTADO A CONCEITOS
  • Data: 26/02/2016
  • Hora: 10:00
  • Mostrar Resumo
  • O uso de Ambientes Virtuais de Aprendizagem (AVA) na educação tem crescido bastante nos últimos anos, muito em virtude da expansão dos cursos na modalidade à distância. Tais espaços de suporte a aprendizagem exigem que se pense em novos métodos educativos, sobretudo no que se refere à avaliação da aprendizagem. Em virtude da grande quantidade de alunos nessa modalidade de educação atuando no AVA, um grande volume de dados é gerado. Assim, para obter-se um bom modelo de avaliação de aprendizagem faz-se necessário uma análise desses dados. O Moodle – AVA mais popular atualmente –, oferece ao professor relatórios, tabelas e gráficos que permitem visualizar os dados referentes às ações dos alunos. Tais ações representam desde o acesso a recursos e materiais didáticos, até a participação em atividades, como fóruns de discussão e resultados de participação questionários, por exemplo. Contudo, essas visualizações nativas do Moodle não levam em consideração as reais necessidades dos docentes, sobretudo em relação a um acompanhamento efetivo da aprendizagem. Diante do exposto, fica evidente a necessidade de se ter ferramentas que auxiliem neste processo. Para isso, há de ter-se um Modelo que permita, de modo ágil e flexível, o armazenamento e a utilização dos dados educacionais dos alunos para a aplicação de técnicas de Learning Analytics com foco no diagnóstico de situações de dificuldade de aprendizagem no contexto da Educação a Distância. Para avaliar esta proposta, a ferramenta ConcetpVis foi implementada a partir do modelo proposto. Em seguida, realizou-se um estudo de caso na disciplina Matemática Elementar do curso de Licenciatura em Computação da Unidade de Educação a Distância da UFPB e, por fim, apresentou-se um questionário para que um grupo de professores respondesse a partir de suas impressões.
  • THIAGO JOSÉ SILVA OLIVEIRA
  • Um Ambiente para Simulação e Testes de Comunicação entre Multi-Robôs através de Cossimulação
  • Data: 26/02/2016
  • Hora: 09:00
  • Mostrar Resumo
  • Sistemas Multi-Robôs (SMR) consistem em múltiplos robôs interagindo, cada um executando uma estratégia de controle específica, que não é conduzida de forma centralizada. Alguns desafios surgiram da necessidade de desenvolver produtos que levem o mundo real em consideração. Fazer com que ferramentas, metodologias e equipes de diferentes áreas possam trabalhar juntas não é uma tarefa simples de ser realizada. Cossimulação representa uma técnica para validação de sistemas heterogêneos. Seu princípio fundamental é prover suporte à execução de diferentes simuladores de forma cooperativa. Um dos padrões para tal é conhecido como High Level Architecture (HLA), que é um padrão descrito no IEEE 1516 e tem sido desenvolvido para dispor uma arquitetura para modelagem e simulação distribuídos. Utilizando HLA, vários simuladores e aplicações reais podem ser simulados juntos. Sendo assim, este trabalho apresenta um projeto para simulação de Sistemas Multi-Robôs (SMR) utilizando ROS cossimulado com um simulador de redes de computadores, o OMNeT++ através do HLA. Seu principal objetivo é tornar as simulações mais próximas da realidade, onde os dados irão ser trocados através de uma rede simulada, como se tivéssemos robôs reais interagindo através de uma rede convencional. Para tal, foi desenvolvida a interface entre o ambiente ROS e o OMNeT++ com o HLA. Experimentos demonstraram que a perda de pacotes foi simulada corretamente, adicionando ao ambiente mais realismo.
  • NAILSON DOS SANTOS CUNHA
  • Um Framework para a Geração Semiautomática de Solos de Guitarra
  • Data: 24/02/2016
  • Hora: 14:00
  • Mostrar Resumo
  • Este trabalho trata do desenvolvimento de um framework baseado em métodos computacionais e de otimização para a composição algorítmica, mais especificamente, para a geração de solos de guitarra. A abordagem proposta foi considerada semiautomática pois faz uso de pequenos fragmentos melódicos licks previamente criados a partir de modelos humanos. Os solos gerados possuem características do estilo musical Blues e são aplicados sobre um modelo de harmonia bastante conhecido denominado 12-Bar Blues. Um banco de dados de licks foi criado, do qual são realizados sorteios de instâncias menores do conjunto, diversificando os possíveis candidatos a estarem no solo a ser gerado. De posse da instância, um problema de otimização, que consiste em sequenciar de forma otimizada um subconjunto de licks, é resolvido utilizando um modelo de programação linear inteira. Implementou-se um conjunto de regras para a criação de uma matriz que define o custo de transição entre os licks. As saídas geradas são armazenadas no formato MusicXML e podem ser lidas pela maioria dos aplicativos que possuam suporte a esse tipo de arquivo e disponibilizem visualização no formato de tablaturas. Os solos criados foram avaliados por uma amostra de 173 indivíduos, classificados como músicos iniciantes, intermediários e profissionais. Uma aplicação web foi desenvolvida para agizilizar o processo de avaliação. Os resultados obtidos demonstram que os solos cujos licks foram sequenciados de forma otimizada foram estatisticamente mais bem avaliados que aqueles sequenciados aleatoriamente, indicando que a metodologia proposta foi capaz de produzir, em média, solos com percentual de aceitação favorável.
  • LUIZ CARLOS RODRIGUES CHAVES
  • Analisando a mobilidade de pesquisadores através de registros curriculares na Plataforma Lattes.
  • Data: 22/02/2016
  • Hora: 17:00
  • Mostrar Resumo
  • A pesquisa científica possui importante papel na evolução do conhecimento humano e por isso tem sido cada vez mais incentivada como objeto de estudo. Na literatura inúmeros são os focos de análise que exploram e apontam as correlações e motivações desta evolução, mas se sabe que a pesquisa científica tem sido demonstrada como um elo bastante forte para tal desenvolvimento, pois os pesquisadores quando usados de forma estratégica podem transferir principalmente seu conhecimento para fundamentar a resolução de problemas. Além disso, trabalhos recentes vêm mostrando que a mobilidade de um pesquisador pode garantir aspectos positivos na produtividade, colaboração e internacionalização da pesquisa científica. Portanto, neste estudo resolveu-se analisar os padrões de mobilidade entre os pesquisadores atuantes ou capacitados no Brasil em instituições de ensino e pesquisa através da extração e tratamento de métricas dependentes da localidade presente em seus registros curriculares. E devido a abrangência no cenário nacional a plataforma Lattes foi adotada como principal fonte de dados sobre o histórico de deslocamento dos pesquisadores. Contudo, a análise da mobilidade só foi possível graças a metodologia de extração e tratamento dos dados deste trabalho que criou o fluxo de deslocamento de todos os doutores do Lattes usando seus registros de nascimento, formação e atuação para assim criar as métricas e visualizações utilizadas nos resultados obtidos. Com essa metodologia foi possível identificar os centros de formação de recursos humanos mais influentes para a comunidade científica nacional e a rede formada por instituições de formação e de atuação dos pesquisadores cadastrados na plataforma Lattes. Inclusive descrevendo como os deslocamentos variam ao longo do tempo. Além de identificar alguns padrões de mobilidade interessantes, como a tendência de deslocamento mínimo realizado pelos pesquisadores nos mais diversos contextos geográficos de visualização.
  • HUGO NEVES DE OLIVEIRA
  • Compressão de Sinais Biomédicos
  • Data: 22/02/2016
  • Hora: 10:00
  • Mostrar Resumo
  • Compressores de eletrocardiogramas e eletroencefalogramas vêm sendo descritos na literatura ao longo das últimas décadas, mas há uma falta de trabalhos que apresentem soluções gerais para todos os sinais biomédicos. Visando preencher essa lacuna, este trabalho discute métodos de compressão que funcionem satisfatoriamente para todos os sinais biomédicos. Os métodos de compressão sem perdas de informação estudados se baseiam em transformadas wavelet e preditores lineares associados a diversos codificadores de entropia. As estratégias de compactação com perdas de informação apresentadas usam transformadas trigonométricas e wavelets seguidas por quantizadores vetoriais baseados em quantização com zona-morta gerados por Minimização Lagrangiana e em Quantizações por Aproximações Sucessivas. Os codificadores de entropia usados se baseiam em Predição por Casamento Parcial, Codificação por Comprimento de Sequência e Particionamento de Conjuntos em Árvores Hierárquicas. Os métodos foram testados usando os sinais do MIT/BIH Polysomnographic Database. Os compressores sem perdas de informação obtiveram razões de compressão até 4,818:1, dependendo do tipo de registro biomédico, enquanto os métodos com perdas obtiveram razões de compressão até 818,055:1. Os sinais mais suaves, como os de respiração e saturação de oxigênio, apresentaram melhores reconstruções com wavelets e Quantização por Aproximações Sucessivas, apesar dos menores desempenhos de compressão. Contrastivamente, para a mesma qualidade de reconstrução visual, transformadas trigonométricas e Minimização Lagrangiana obtiveram melhores eficácias de compressão para sinais mais variáveis -- como eletroencefalogramas e eletromiogramas.
  • JONAS FERNANDES DA SILVA
  • Uma solução de baixo custo para o processamento de imagens aéreas obtidas por Veículos Aéreos Não Tripulados
  • Data: 19/02/2016
  • Hora: 14:00
  • Mostrar Resumo
  • Currently, unmanned aerial vehicles (UAVs) are increasingly used to aid the various tasks around the world. The popularization of this equipment associated with the advancement of technology, particularly the miniaturization of processors, extend their functionalitys. In agricultural applications, these devices allow monitoring of production by capturing aerial images, for which they are processed and identified areas of interest through specific software. This work proposes a low-cost solution capable of processing aerial images obtained by non-metric digital cameras coupled to UAVs to identify gaps in plantations and/or estimate levels of environmental degradation, it is possible its implementation in small computers and low power consumption. Embedded systems coupled in UAVs allow perform processing in real time, which contributes to a preventive diagnosis, reduces the response time and can avoid damages in the crop. The algorithm used is based on watershed, while the second algorithm uses classification techniques based on the 1-Nearest Neighbor (1-NN). The system is developed in C ++ with use of computer vision software library OpenCV. Are used the embedded systems DE2i-150 and Intel Edison, both x86 architecture, and Raspberry Pi 2 of ARM architecture. Moreover, the technique 1-NN showed higher tolerance to lighting problems, however, require more processing power compared to the algorithm based on watershed. The results show that the proposed system is an efficient and relatively low-cost solution compared to traditional means of monitoring and can be coupled in a UAV to perform the processing during the flight.
  • LEONARDO ANGELO VIRGINIO DE SOUTO
  • Uma Nova Abordagem de Mapeamento e Localização Simultâneo Planar utilizando sensores RGB-D Baseada em Subtração de Objetos
  • Data: 19/02/2016
  • Hora: 10:00
  • Mostrar Resumo
  • Ao usar algoritmos de Mapeamento e Localização Simultâneos (do inglês Simultaneous Localization and Maping - SLAM) baseados em sensores RGBD, um robô muitas vezes leva em conta dinâmica e objetos estáticos durante a etapa de mapeamento 3D. Para resolver este problema, este trabalho tem como objetivo apresentar uma nova abordagem em RGB-D Planar SLAM, aqui chamada SLAM Baseado em Subtração de Objetos (OS-SLAM), utilizando apenas sensores RGB-D de baixo custo, como o Microsoft Kinect. Essa abordagem subtrai objetos do ambiente 3D e cria um mapa 3D limpo, projetando planos estimados sem os objetos identificados e encontrados ao longo do procedimento de mapeamento. Para validar esta abordagem, foram realizados quatro experimentos. Três deles em um ambiente real e um com um conjunto de dados abertos comparando-os com outros algoritmos do estado-da-arte. Os algoritmos foram aplicados a uma plataforma Turtlebot 2, que tem um sensor RGB-D como seu sensor principal. Os resultados demonstraram a eficiência na geração de mapas limpos e precisos utilizando o algoritmo OS-SLAM.
  • THIAGO WERLLEY BANDEIRA DA SILVA
  • Aplicação do Problema do Caixeiro Viajante (PCV) em um Planejamento de Trajetória no Setor Agrícola (PTSA) Utilizando um Veículo Aéreo Não Tripulado (VANT)
  • Data: 05/02/2016
  • Hora: 15:00
  • Mostrar Resumo
  • Os sistemas embarcados acoplados em Veículos Aéreos Não Tripulados (VANTs) têm possibilitado um grande avanço no desenvolvimento de diversas aplicações, por exemplo, na agricultura. Através destes sistemas podemos ter um maior controle sobre as condições da região agrícola e aumentar a produtividade da plantação. Este trabalho tem por objetivoanalisar alguns métodos para localizar e otimizar a melhor trajetória de VANTs numa área agrícola. Em cada cenário que o drone processar deve-se tirar fotos das regiões com falha, para isso o drone deve reduzir sua altura proporcional a região, possibilitando fotos com boa qualidade das falhas. Um gerador de manchas possibilita analisar o desempenho da escolha da solução de diferentes cenários quanto a qualidade das imagens. Posteriormente, testes realizados com altitudes fixas e mistas possibilitam um comparativo da melhor escolha na tomada de decisão do drone usando abordagem PCV. Fez-se ainda, um comparativo dos métodos para determinar a trajetória do drone, baseados nas formulações para o Problema do Caixeiro Viajante (PCV) e Problema do Caixeiro Viajante Suficientemente Próximo (PCVSP), a partir das imagens geradas. Por fim, são realizados experimentos de desempenho entre os computadores mensurando tempo, qualidade e distância, assim é analisado uma possível escolha de embarcar no drone.
  • LETTIERY D'LAMARE PORTELA PROCOPIO
  • Matheurísticas para o Problema de Custo de Disponibilidade de Recursos com Múltiplos Modos.
  • Data: 02/02/2016
  • Hora: 14:00
  • Mostrar Resumo
  • Este trabalho busca a utilizacao de Matheuristicas para solucionar o Problema de Custo de Disponibilidade de Recursos com Multiplos Modos, e tenta organizar as atividades de forma a minimizar o tempo total do projeto (makespan). Busca ainda a reducao do custo de utilizacao dos recursos nessas atividades, as quais podem ser executadas de varias maneiras distintas, com variacao de tempos e recursos. Para melhor comparacao dos resultados foram propostas duas abordagens: uma solucao baseada em Particle Swarm Optimization (PSO) e outra baseada em Algoritmo Genetico. Em ambas, a formulacao matematica do problema e usada para desenvolver estrategias de busca local exata.
  • LUIS FELIPHE SILVA COSTA
  • Um ambiente de monitoramento para sistemas multi-robôs com cossimulação federada e hardware-in-the-loop
  • Data: 15/01/2016
  • Hora: 10:00
  • Mostrar Resumo
  • Este trabalho visa o desenvolvimento de um ambiente de simulação que permita a co-simulação de sistemas robóticos com a utilização da Arquitetura de Alto Nível. A Arquitetura de Alto Nível (HLA) é um padrão IEEE que permite que diversos simuladores possam compartilhar informações entre si. Dessa forma pretende-se unir os simuladores Stage e Ptolemy por meio desse padrão. Também poderá ser possível adicionar diferentes plataformas de desenvolvimento nas simulações como a Beaglebone black, Arduíno e RaspBerry pi. Com o desenvolvimento deste ambiente integrado será possível que robôs reais, simulados e diferentes dispositivos de hardware participem de uma mesma simulação. Com isso, o desenvolvedor poderá ter uma visão mais diversificada dos dispositivos, pela utilização de simuladores que tem focos distintos e ainda aumentar a realidade das simulações com a utilização de robot-in-the-loop, uma técnica de teste de sistemas que consiste na utilização de robôs reais nas simulações.
2015
Descrição
  • ELINE RAQUEL DE MACEDO
  • Um Simulador Baseado em RV para o Treinamento de Estudantes na Administração de Medicamentos Injetáveis
  • Data: 11/12/2015
  • Hora: 15:00
  • Mostrar Resumo
  • Simuladores baseados em realidade virtual podem auxiliar nos processos educacionais em saúde, acrescentando a prática simulada em um ambiente seguro e realista. Um procedimento médico que é alvo de críticas, devido aos relatos de erros, é a administração de medicamentos injetáveis. Várias são as pesquisas que apontam as deficiências dos profissionais nessa técnica. Considerando que essa deficiência venha desde a formação do profissional da saúde, o objetivo principal deste trabalho é propor uma ferramenta de capacitação baseada em realidade virtual para a administração de medicamentos injetáveis. Além disso, este trabalho também apresenta a modelagem das métricas de avaliação utilizadas no módulo para avaliação do usuário pelo simulador, discutindo a importância do estabelecimento dessas métricas para serem utilizadas em simuladores de realidade virtual.
  • CLOVIS FERREIRA DOS REIS
  • Detecção de Sons Impulsivos em um Sistema de Reconhecimento de Disparos de Armas de Fogo.
  • Data: 04/12/2015
  • Hora: 14:00
  • Mostrar Resumo
  • O crescimento da violência urbana e fato inegavel e para fazer face a crescente ameaca, as autoridades policiais necessitam de ferramentas modernas que auxiliem a tomada de decisões sobre quando empregar os parcos recursos disponiveis a repressão do crime. Dentro deste contexto este trabalho vem apresentar uma ferramenta que se dispõe a realizar a detecção e reconhecimento automático de disparos de armas de fogo. Para tanto, são apresentados os fundamentos sobre sons impulsivos, armas de fogo e caractersticas de seus disparos e são propostas as bases de um sistema modular de detecção e reconhecimento de disparos. Para desenvolvê-lo, foram analisados diferentes algoritmos de detecção de sons impulsivos com base em sua e cificiência, além de diversas técnicas de análise de sinais no domnio do tempo e no domínio das frequências, com o intuito de, num segundo momento, diferenciar sons impulsivos de qualquer natureza daqueles provocados por disparos de armas de fogo. Finalmente, são apresentadas implementações das partes mais importantes do sistema de reconhecimento de disparos de armas de fogo.
  • CLOVIS FERREIRA DOS REIS
  • Detecção de Sons Impulsivos em um Sistema de Reconhecimento de Disparos de Armas de Fogo.
  • Data: 04/12/2015
  • Hora: 14:00
  • Mostrar Resumo
  • O crescimento da violência urbana e fato inegavel e para fazer face a crescente ameaca, as autoridades policiais necessitam de ferramentas modernas que auxiliem a tomada de decisões sobre quando empregar os parcos recursos disponiveis a repressão do crime. Dentro deste contexto este trabalho vem apresentar uma ferramenta que se dispõe a realizar a detecção e reconhecimento automático de disparos de armas de fogo. Para tanto, são apresentados os fundamentos sobre sons impulsivos, armas de fogo e caractersticas de seus disparos e são propostas as bases de um sistema modular de detecção e reconhecimento de disparos. Para desenvolvê-lo, foram analisados diferentes algoritmos de detecção de sons impulsivos com base em sua e cificiência, além de diversas técnicas de análise de sinais no domnio do tempo e no domínio das frequências, com o intuito de, num segundo momento, diferenciar sons impulsivos de qualquer natureza daqueles provocados por disparos de armas de fogo. Finalmente, são apresentadas implementações das partes mais importantes do sistema de reconhecimento de disparos de armas de fogo.
  • ARNALDO GUALBERTO DE ANDRADE E SILVA
  • Identificação e Verificação Multibiométrica por Geometria da Mão e Impressão Palmar com Otimização por Algoritmos Genéticos
  • Data: 23/10/2015
  • Hora: 10:00
  • Mostrar Resumo
  • A Biometria oferece um mecanismo de autenticação confiável utilizando traços (físicos ou comportamentais) que permitam identificar usuários baseados em suas características naturais. Serviços biométricos de classificação e verificação de usuários, são considerados, a princípio, mais seguros que sistemas baseados em políticas de senha, por exigirem a apresentação de uma característica física única e, portanto, a presença do usuário ao menos no momento da autenticação. No entanto, tais métodos apresentam vulnerabilidades que resultam em alta taxa de verificação falsa, mesmo em sistemas mais modernos. Algoritmos genéticos (GA), por sua vez, são uma abordagem de otimização baseada no princípio da seleção natural de Charles Darwin e que vêm provando, ao longo dos anos, ser uma ferramenta útil na busca de soluções em problemas complexos. Além disso, seu uso em sistemas biométricos também vem crescendo por se mostrar uma alternativa para seleção de características. Este trabalho utiliza os algoritmos genéticos como ferramenta na otimização de parâmetros da classificação e verificação do banco palmar. A Base Multibiométrica BioPass-UFPB é apresentada e empregada para teste e validação do método proposto. Ao todo, 85 atributos geométricos extraídos de cada imagem são utilizados e análises sobre a importância desses atributos são realizadas. Os resultados mostraram que, nas duas abordagens de verificação empregadas, os algoritmos genéticos conseguiram melhoras superiores a 30% e 90% da EER em relação ao caso em que o GA não era aplicado. Na classificação, o uso de algoritmos genéticos conseguiu melhorar os resultados do classificador k-NN. Por fim, espera que os resultados deste trabalho, bem como a base BioPass-UFPB, sirvam de referência na implementação de novos sistemas de reconhecimento biométrico baseados na geometria da mão.
  • LEONARDO DE ARAUJO DOMINGUES
  • Acessibilidade em Cinemas Digitais: Uma Proposta de Geração e Distribuição de Libras e Audiodescrição
  • Data: 13/10/2015
  • Hora: 16:00
  • Mostrar Resumo
  • Pessoas com deciência sensorial (auditiva ou visual) enfrentam diversos entraves para participar da vida em sociedade, para se comunicar com outras pessoas e ter acesso à informações. A participação dessas pessoas em alguns ambientes, como, por exemplo, nos cinemas, nos teatros, nas escolas, enquanto navegam na Internet, dentre outros, é muitas vezes limitada devido a ausência de soluções acessíveis que viabilizem sua participação e interação nesses ambientes. Geralmente, quando estão disponíveis, os recursos de acessibilidade se limitam a utilização de legendas em formato texto, ou não estão presentes no caso de usuários cegos. Porém, essas abordagens são consideradas ineficientes, uma vez que os surdos, por exemplo, têm bastante dificuldade de ler e escrever na língua oral do seu país. Portanto, para minimizar esses problemas, neste trabalho, é apresentada uma solução computacional capaz de gerar automaticamente a partir das legendas, trilhas de vídeo com janelas de Libras para usuários surdos, e a partir do roteiro do filme, gerar Audiodescrição para usuários cegos e distribuir esses conteúdos para usuários usando dispositivos de segunda tela. Experimentos com um protótipo da solução mostraram que a solução tem potencial para gerar de forma eciente conteúdos inteligíveis para esses usuários, melhorando o seu acesso a esse tipo de tecnologia.
  • DIEGO SOUSA DE AZEVEDO
  • ADAPTAÇÃO DE UM CONTROLADOR PREDITIVO DE FORMAÇÃO BASEADO EM MODELO NÃO-LINEAR PARA EMBARCAR EM ARQUITETURAS DE BAIXO CUSTO
  • Data: 09/10/2015
  • Hora: 15:00
  • Mostrar Resumo
  • Um sistema Multi-Robôs é formado quando um grupo de robôs interage com o ambiente como um único sistema. Este sistema pode também ser formado para realizar tarefas outrora difíceis ou até impossíveis de serem realizadas por um único robô. O papel destes robôs deve ser desempenhado pelo próprio sistema de controle, que o deve suprir com a capacidade necessária para fazê-los mover corretamente. O intuito do projeto macro é obter dados comparativos entre o uso desse tipo de controlador em um Laptop e o uso desse controlador embarcado em uma placa de baixo custo. Dessa forma, o principal objetivo desse trabalho é embarcar um controlador preditivo de formação, em uma placa de baixo custo que disponibilize recursos computacionais suficientes para que o Robô seja capaz de convergir, sem perda de desempenho e utilizando horizontes próximos aos aplicados em um PC.
  • MÁRCIO ADAMEC LOPES OLIVEIRA
  • Formação de uma infraestrutura de informação para telerradiologia: uma série de estudos de caso baseados na teoria de projeto para complexidade dinâmica
  • Data: 01/10/2015
  • Hora: 14:00
  • Mostrar Resumo
  • A evolução tecnológica tem fornecido uma variedade de ferramentas que quando integradas favorecem o surgimento de soluções de tecnologia da informação e, consequentemente, o aparecimento de novas infraestruturas, embora haja um crescimento na complexidade dessas soluções. A telerradiologia e as soluções locais para distribuição de imagens médicas são evidências dessa evolução tecnológica. Apesar disso, ainda não se observou uma infraestrutura para teleradiologia com características das denominadas infraestruturas de informação (II), a saber: capacidade de organização dinâmica, constituída por uma quantidade crescente e heterogênea de elementos técnicos e sociais, com elevados níveis de adaptação e variação de componentes, possuindo ainda controle descentralizado e episódico e que evolui de forma não limitada e sob condições diversas. Tais infraestruturas, se aplicadas a soluções locais e globais para telerradiologia, favoreceriam o aparecimento de um espaço social público para práticas radiológicas, derrubando as fronteiras entre o local e o global. O objetivo desse trabalho é buscar compreender quais obstáculos dificultam a formação de tal II. Para isso, utilizou-se a teoria de projeto para complexidade dinâmica (TPCD) em infraestrutura de informação, baseada na teoria dos sistemas adaptativos complexos (CAS), como referência principal na investigação de uma série de estudos de caso em telerradiologia. Para alcançar tal objetivo foi realizada uma pesquisa baseada em descrições empíricas de soluções para telerradiologia, buscando evidências em cada caso, resultando em um conjunto compilado de conhecimento acerca de qualidades, deficiências e obstáculos mapeados para um conjunto de regras de projeto da TPCD. O resultado dessa investigação evidencia a deficiência técnica e social em torno da capacidade de adaptação como um importante fator para dificultar a expansão da telerradiologia e, consequentemente, a formação de uma infraestrutura de informação. Finalmente, concluiu-se que, apesar da crescente quantidade de soluções para telerradiologia, não foi possível observar tal II; e que a chave para a formação desta II está em projetar visando a máxima flexibilidade sociotécnica, isto é, a capacidade de adaptação, de modo contínuo, com alto nível de independência entre os elementos constituintes e capaz de lidar com contextos sociais e técnicos diversificados.
  • MÁRCIO ADAMEC LOPES OLIVEIRA
  • Formação de uma infraestrutura de informação para telerradiologia: uma série de estudos de caso baseados na teoria de projeto para complexidade dinâmica
  • Data: 01/10/2015
  • Hora: 14:00
  • Mostrar Resumo
  • A evolução tecnológica tem fornecido uma variedade de ferramentas que quando integradas favorecem o surgimento de soluções de tecnologia da informação e, consequentemente, o aparecimento de novas infraestruturas, embora haja um crescimento na complexidade dessas soluções. A telerradiologia e as soluções locais para distribuição de imagens médicas são evidências dessa evolução tecnológica. Apesar disso, ainda não se observou uma infraestrutura para teleradiologia com características das denominadas infraestruturas de informação (II), a saber: capacidade de organização dinâmica, constituída por uma quantidade crescente e heterogênea de elementos técnicos e sociais, com elevados níveis de adaptação e variação de componentes, possuindo ainda controle descentralizado e episódico e que evolui de forma não limitada e sob condições diversas. Tais infraestruturas, se aplicadas a soluções locais e globais para telerradiologia, favoreceriam o aparecimento de um espaço social público para práticas radiológicas, derrubando as fronteiras entre o local e o global. O objetivo desse trabalho é buscar compreender quais obstáculos dificultam a formação de tal II. Para isso, utilizou-se a teoria de projeto para complexidade dinâmica (TPCD) em infraestrutura de informação, baseada na teoria dos sistemas adaptativos complexos (CAS), como referência principal na investigação de uma série de estudos de caso em telerradiologia. Para alcançar tal objetivo foi realizada uma pesquisa baseada em descrições empíricas de soluções para telerradiologia, buscando evidências em cada caso, resultando em um conjunto compilado de conhecimento acerca de qualidades, deficiências e obstáculos mapeados para um conjunto de regras de projeto da TPCD. O resultado dessa investigação evidencia a deficiência técnica e social em torno da capacidade de adaptação como um importante fator para dificultar a expansão da telerradiologia e, consequentemente, a formação de uma infraestrutura de informação. Finalmente, concluiu-se que, apesar da crescente quantidade de soluções para telerradiologia, não foi possível observar tal II; e que a chave para a formação desta II está em projetar visando a máxima flexibilidade sociotécnica, isto é, a capacidade de adaptação, de modo contínuo, com alto nível de independência entre os elementos constituintes e capaz de lidar com contextos sociais e técnicos diversificados.
  • FRANCISCO PORFIRIO RIBEIRO NETO
  • MELHORIA NA CLASSIFICAÇÃO DE TÓPICOS EM TEXTOS CURTOS USANDO BACKGROUND KNOWLEDGE
  • Data: 31/08/2015
  • Hora: 14:00
  • Mostrar Resumo
  • O poder da iteração entre usuários na internet aumentou consideravelmente através do surgimentos de ferramentas alinhadas com os conceitos da WEB 2.0, a exemplo dos blogs, fóruns de discussão, e redes sociais como o Facebook e Twitter. Estas aplicações são constituídas por uma troca contínua de mensagens entre os usuários, gerando com isso uma expressiva massa de dados formada por várias pequenas mensagens. Estudos mostram que informações podem ser extraídas com base em tais dados, através da classificação de textos, porém isto tem sido um desafio tremendo para pesquisadores da área, uma vez, que as mensagens dos usuários nestas aplicações são bem curtas, fazendo com que ocorra o problema de escassez de dados e ausência de similaridade entre palavras relevantes. Com base na problemática destacada, busca-se com esta dissertação, ilustrar dois métodos de classificação de textos curtos, que se demostraram eficientes usando um corpus específico, para isso, será aplicado tais estratégias em um corpus construído com base no tópico “Violência no Brasil”.
  • LEANDRO JOSE CAETANO
  • Expandindo a Área de Cobertura de um Sistema Multi-Robôs Através de uma Rede Multicamadas e um Middleware de Base de Dados em Tempo Real
  • Data: 31/08/2015
  • Hora: 10:00
  • Mostrar Resumo
  • A comunicação entre robôs é tarefa fundamental e de grande importância na robótica. É a partir dela que eles conseguem descobrir e repassar informações sobre obstáculos encontrados no caminho, transmitir para os outros robôs informações sobre um alvo que outro robô não consiga detectar, determinar juntos sobre a melhor rota a seguir, entre outros. Uma das grandes dificuldades, no contexto em que se tem a comunicação de robôs em uma rede sem fio, está em distanciá-los. Um deles, por exemplo, pode migrar para uma outra área deixando a sua formação inicial, afim de realizar uma tarefa específica e distanciar dos limites de cobertura. Ao distanciar um robô do outro, os limites conferidos pelo meio acarretarão uma perda de sinal comprometendo a comunicação entre eles. Deste modo, conhecer a área de cobertura de uma rede sem fio onde robôs estarão conectados é um processo importante para a implantação de um sistema de comunicação entre robôs. Este trabalho propõe expansão da área de cobertura de uma rede sem fio, a ser utilizada em sistemas Multi-Robôs, usando um Middleware de Base de Dados em Tempo Real - RTDB, em redes multicamadas que utilizam os padrões IEEE 802.11 e 802.15.4, aplicado à otimização da análise da Área de Cobertura e de Interferência de Redes Sem Fio. Os resultados obtidos demonstra a robustez e confiabilidade do cenário proposto e de acordo com os experimentos realizados, comprovou-se que o uso de redes multicamadas proporciona um maior alcance na área de cobertura de uma formação de robôs.
  • JANSEN CRUZ DE SOUZA
  • Utilizando Títulos de Artigos Científicos na Construção de Redes Semânticas para Caracterizar Áreas de Pesquisa
  • Data: 27/08/2015
  • Hora: 16:00
  • Mostrar Resumo
  • The scientific knowledge is not just the discovery of new facts and laws, but also in its publication. Aiming to understand the complex scientific production system analysis techniques have been applied in many digital repositories. The social network analysis (SNA) has been a topic of interest of several studies in recent years. Social networks can be established from the relationship between people or the relationship of information that can be analyzed to assist decision making. The purpose of this thesis is to present a technique that makes it possible to characterize areas of scientific research by building semantic networks vary in time. These networks are built building on the co-occurrence of keywords in the titles of scientific papers, used to represent the evolution of research themes addressed by means of publication over time.
  • VITOR MARCIO PAIVA DE SOUSA BAPTISTA
  • Um modelo para a previsão da entrada ou saída da coalizão pelos deputados federais
  • Orientador : ALEXANDRE NOBREGA DUARTE
  • Data: 27/08/2015
  • Hora: 16:00
  • Mostrar Resumo
  • No Brasil, existem ferramentas para o acompanhamento do comportamento dos parlamentares em votações nominais, tais como o Basômetro do jornal O Estado de São Paulo e o Radar Parlamentar. Essas ferramentas foram usadas para análises tanto por jornalistas quanto por cientistas políticos. Apesar de serem ótimas ferramentas de análise, sua utilidade para monitoramento é limitada por exigir um acompanhamento manual, o que se torna muito trabalhoso quando consideramos o volume de dados. Somente na Câmara dos Deputados, 513 parlamentares participam em média de mais de 400 votações nominais por legislatura. É possível analisar os partidos como um todo, o que diminuiria bastante a quantidade de dados, mas em contrapartida perdemos a capacidade de detectar movimentações de indivíduos ou grupos intra-partidários como as bancadas. Para diminuir esse problema, desenvolvi neste trabalho um modelo estatístico que prevê quando um parlamentar vai entrar ou sair da coalizão governamental através de estimativas de pontos ideais usando o W-NOMINATE. Ele pode ser usado individualmente ou integrado a ferramentas como o Basômetro, oferecendo um filtro para os pesquisadores encontrarem os parlamentares que mudaram mais significativamente de comportamento. O universo de estudo é composto pelos parlamentares da Câmara dos Deputados no período da 50ª até a 54ª legislaturas, iniciando no primeiro mandato de Fernando Henrique Cardoso em 1995 até o final do primeiro mandato de Dilma Rousseff em 2015.
  • MANUELLA ASCHOFF CAVALCANTI BRANDAO LIMA
  • Uma Estratégia de Tradução Automática com Adequação Sintático-Semântica para LIBRAS
  • Data: 26/08/2015
  • Hora: 10:00
  • Mostrar Resumo
  • Pessoas surdas se comunicam naturalmente usando linguagens viso-espaciais, denominadas línguas de sinais. No entanto, apesar das línguas de sinais (LS), em muitos países, serem reconhecidas como língua, os problemas enfrentados pelos surdos no tocante ao acesso a informação permanecem. Em consequência disso, observa-se uma grande dificuldade dos surdos exercerem a sua cidadania e terem acesso à informação através das LS, o que acaba geralmente implicando em atraso linguístico e de aquisição do conhecimento. Visando propor soluções alternativas para minimizar a marginalização dos surdos, alguns trabalhos vêm sendo desenvolvidos relacionados à tradução automática de línguas orais para línguas de sinais. No entanto, as soluções existentes apresentam muitas limitações, pois precisam garantir que o conteúdo disponibilizado aos surdos chegue com a mesma qualidade que aos ouvintes. Neste sentido, o presente trabalho tem como objetivo desenvolver uma solução para tradução automática para LIBRAS com adequação sintático-semântica. Essa solução envolve um componente de tradução automática para LIBRAS; uma linguagem formal de descrição de regras, modelada para criar regras de tradução sintático-semânticas; a definição de uma gramática explorando esses aspectos; e a integração desses elementos no serviço VLibras, um serviço de tradução automática de conteúdos digitais em Português para LIBRAS. Para avaliar a solução, alguns testes computacionais utilizando as métricas WER e BLEU e com usuários surdos e ouvintes da LIBRAS foram realizados para aferir a qualidade da saída gerada pela solução. Os resultados mostram que a abordagem proposta conseguiu melhorar os resultados da versão atual do VLibras.
  • GLAUCO DE SOUSA E SILVA
  • Sinestesia em Interfaces de Usuário: Modelando o Design da Interação através dos Sentidos Humanos
  • Data: 25/08/2015
  • Hora: 09:00
  • Mostrar Resumo
  • Hoje em dia, um dos pontos chave para a desenvolvimento de sistemas computacionais é a solução para a interação com o usuário. Interfaces gráficas de usuário, manipulação direta, realidade virtual e interfaces de usuário tangíveis são exemplos dessa evolução. Então, a busca por novas formas de interação que permitam modelos de interação que consigam despertar a atração do usuário é uma área de constante estudo. Neste sentido, propõe-se o uso da sinestesia como uma abordagem para a interface de usuário. Sinestesia é um sentimento único resultante de respostas mútuas de diferentes tipos de sentidos humanos que podem aumentar a habilidade humana de reconhecer informações. Esta habilidade rara permite que pessoas possam ouvir cores, sentir o sabor de sons, entre outras misturas de sentidos. A partir de uma análise de trabalhos correlatos sobre a sinestesia em sistemas computacionais, foi possível estabelecer que existe uma falta de um processo para o desing de interfaces com caracterísitcas sinestésicas mais generalista e testes com usuários reais. Desta forma foi desenvolvido um processo que se adapta as características sinestésicas da interface e validado através do desenvolvimento de uma aplicação, o Genius Vibe. Os resultados mostraram que o modelo de processo se adaptou bem ao desing da interface e através de testes com usuários reais percebeu-se que a sinestesia fez com que a interface fosse mais atrativa.
  • JEFFERSON BARBOSA BELO DA SILVA
  • Uma Heurística Simplificada para Funções Custo de Planejadores da Família A*
  • Data: 21/08/2015
  • Hora: 15:00
  • Mostrar Resumo
  • Uma das principais questões relacionados ao tema da robótica móvel é descobrir a maneira mais eficiente para realizar a navegação, de um ponto a outro no ambiente, com máxima segurança e despendendo a menor quantidade de tempo e de recursos computacionais possível. À vista disso, o presente trabalho se motiva a desenvolver uma melhoria heurística que possa ser aplicável às funções custo dos principais algoritmos baseados na família A* e que propõe utilizar, de forma mais eficiente, os recursos computacionais disponíveis, aperfeiçoando assim, os resultados obtidos através dos principais algoritmos de buscas aplicados à robótica móvel. A mesma tem o objetivo de minimizar a quantidade de colisões, a duração do trajeto, bem como o tempo de processamento através da minimização da importância da variável g(n) - responsável em armazenar informações subutilizadas do passado dos algoritmos. Para visualizar os efeitos dessa modificação, um levantamento das melhores estratégias de busca em ambiente estático e dinâmico foi realizado e, através deste, foram analisados os quatro melhores e mais atuais algoritmos destacados pela literatura técnica especializada. Algumas comparações foram efetuadas considerando ambientes estáticos e altamente dinâmico com diferentes direções de busca e parâmetros que visavam mensurar a qualidade das trajetórias geradas. Em seguida, esses foram novamente analisados com suas respectivas funções custo modificada. Os resultados da comparação demonstraram que o algoritmo R*, com direção de busca direta, é o mais eficiente para diferentes espaços e pesquisas. No entanto, a modificação em suas respectivas funções custo proporcionou uma melhora significativa nos já excelentes resultados conquistados pelos algoritmos originais. Em ambientes estáticos, esta modificação se mostrou mais eficaz para problemas grandes e complexos, os que são efetivamente utilizados por robôs reais. Em ambientes altamente dinâmicos, a mesma apresentou uma redução considerável no tempo de planejamento e no número de iterações para localizar o objetivo, bem como reduziu a utilização de memória o que, consequentemente, tornou os robôs mais ágeis e habilidosos.
  • JOSE CLAUDIO VEIRA E SILVA JUNIOR
  • Verificação de Projetos de Sistemas Embarcados Através de Cossimulação Hardware/Software
  • Data: 17/08/2015
  • Hora: 10:00
  • Mostrar Resumo
  • Este trabalho propõe um ambiente para verificação de sistemas embarcados heterogêneos através da cossimulação distribuída. A verificação ocorre de maneira síncrona entre o software do sistema e plataforma de hardware usando a High Level Architecture (HLA) como um middleware entre o dispositivo de hardware e o modelo simulado. A novidade desta abordagem não é apenas fornecer suporte para simulações, mas também permitir a integração sincronizada com todos os dispositivos de hardware físico. Neste trabalho foi utilizado o Ptolemy como uma plataforma de simulação. A integração do HLA com Ptolemy e os modelos de hardware abre um vasto conjunto de aplicações, como o de teste de vários dispositivos ao mesmo tempo, executando os mesmos, ou diferentes aplicativos ou módulos, a execução de diferentes dispositivos embarcados para a melhoria do desempenho ou execução colaborativa. Além disso a abordagem de utilização do HLA, permite que sejam interligados ao ambiente, qualquer tipo de robô, assim como qualquer outro simulador diferente do Ptolemy. Estudo de casos são apresentado para provar o conceito, mostrando a integração bem sucedida entre o Ptolemy e o HLA e a verificação de sistemas utilizando Hardware-in-the-loop e Robot-in-the-loop.
  • TEOBALDO LEITE BULHÕES JUNIOR
  • Algoritmos Exatos para o Problema da Edição de p-Clusters
  • Data: 21/07/2015
  • Hora: 16:00
  • Mostrar Resumo
  • Este trabalho trata do Problema de Edição de p-Clusters (p-PEC), o qual consiste em realizar um número mínimo de edições (adições ou remoções de arestas) em um grafo G de modo a transformá-lo em uma união disjunta de p cliques (ou clusters), sendo G e p dados de entrada. O p-PEC é um problema NP-Difícil que possui aplicações em áreas como biologia computacional e aprendizagem de máquina. Para resolvê-lo, foram propostas duas novas formulações matemáticas e melhorias em uma formulação proveniente da literatura, bem como novas desigualdades válidas. As três formulações consideradas foram estudadas tanto teoricamente, através da comparação entre as relaxações lineares, quanto empiricamente, através do desenvolvimento de três algoritmos exatos: dois baseados em Branch-and-Cut (BC) e um baseado em Branch-and-Price (BP). Os algoritmos foram testados em instâncias com até 211 vértices. Os resultados mostram o impacto da razão entre p e o número de vértices, da densidade do grafo e das desigualdades nos desempenhos dos algoritmos. No geral, os algoritmos BC foram superiores ao algoritmo BP. Porém, em algumas instâncias, os melhores limites duais foram obtidos pelo algoritmo BP.
  • YURI GIL DANTAS
  • Estratégias para Tratamento de Ataques de Negação de Serviço na Camada de Aplicação em Redes IP
  • Data: 14/07/2015
  • Hora: 14:00
  • Mostrar Resumo
  • Ataques de Negação de Serviço Distribuído (Distributed Denial of Service - DDoS) estão entre os ataques mais perigosos na Internet. A abordagem desses atacantes vem mudando nos últimos anos, ou seja, os ataques DDoS mais recentes não têm sido realizados na camada de transporte e sim na camada de aplicação. A principal diferença é que, neste último, um atacante pode direcionar todo ataque para uma aplicação específica do servidor, gerando menos tráfego na rede e tornando-se mais difícil de detectar. Tais ataques exploram algumas peculiaridades nos protocolos utilizados na camada de aplicação. Este trabalho propõe uma nova defesa (SeVen) para ataques DDoS na Camada de Aplicação, baseada em Adaptive Selective Verification (ASV) um mecanismo defesa para ataques DDoS na camada de transporte. Foram utilizadas duas abordagens para validar o SeVen: 1) Simulação: Todo o mecanismo de defesa foi formalizado em Maude e simulado usando um modelo estatístico (PVeStA). 2) Experimentos na rede: Análise da eficiência de SeVen, implementado em C++, em um experimento real na rede. Em ambas abordagens, foram investigados três ataques direcionados ao Protocolo HTTP. Nesses ataques, apesar de terem perfis diferentes, SeVen obteve um elevado índice de disponibilidade.
  • DORGIVAL PEREIRA DA SILVA NETTO
  • Promovendo Modularidade em um Processo de Engenharia Requisitos para Linhas de Produto de Software
  • Data: 13/07/2015
  • Hora: 13:00
  • Mostrar Resumo
  • Abordagens de Engenharia de Requisitos Orientadas a Objetivos capturam tanto os objetivos dos stakeholders como os requisitos do software a ser desenvolvido, de modo que este último corresponda ao que realmente os stakeholders desejam. Modelos de objetivos são capazes de capturar as similaridades e variabilidades de uma Linha de Produto de Software (LPS), mas não conseguem descrever o comportamento detalhado de suas funcionalidades. Diante dessa limitação, o processo GS2SPL (Goals and Scenarios to Software Product Lines) foi definido para obter sistematicamente, a partir de modelos de objetivos, modelos de features e especificações de cenários de casos de uso com variabilidade. Entretanto, a variabilidade da LPS e o conhecimento de configuração ficam entrelaçados nos cenários de caso de uso, o que prejudica a manutenção e reuso dos artefatos. A fim de solucionar este problema, foram propostas técnicas de especificação de cenários de casos de uso com separação de interesses transversais (ou, simplesmente, cenários aspectuais). Uma destas técnicas é o MSVCM (Modeling Scenario Variability as Crosscutting Mechanisms), que especifica a variabilidade da LPS separadamente do conhecimento de configuração e define um processo para configurar as especificações de produto. Assim, este trabalho propõe uma extensão do GS2SPL visando obter, sistematicamente, modelos de features e especificações de cenários aspectuais em MSVCM, a partir de modelos de objetivos. Esta abordagem chama-se GAS2SPL (Goals and Aspectual Scenarios to Software Product Lines) e seu processo será avaliado com o exemplo MyCourses - A Course Scheduling System. A avaliação foi realizada através de um estudo comparativo entre os artefatos do MyCourses gerados pelas abordagens GS2SPL e GAS2SPL, levando-se em consideração a modularidade (espalhamento de features e entrelaçamento de cenários) e, quão detalhado são as composições e o conhecimento de configuração (expressividade). Depois de avaliar a nossa abordagem, percebemos que há redução no espalhamento de features e entrelaçamento de cenários, e o detalhamento do conhecimento de configuração na nossa abordagem torna-o mais simples de entender do que sua representação na abordagem GS2SPL.
  • RAFAEL HENRIQUE ASSIS DE CASTRO
  • Uso de Interação Natural em Simulador de Procedimentos para Treinamento no Setor Elétrico.
  • Data: 23/06/2015
  • Hora: 10:00
  • Mostrar Resumo
  • Simuladores de procedimentos têm sido utilizados em diversas áreas para auxiliar a execução de diversas tarefas. O uso de interfaces que facilitem a manipulação das ações, nas diversas fases da execução da tarefa, no contexto do simulador, pode ser um importante componente para facilitar o uso por partes dos profissionais. Sendo o setor elétrico composto por diversos procedimentos de alto risco, há uma grande necessidade do bom treinamento dos seus operadores. Visando auxiliar esse treinamento, o trabalho aqui descrito tem como principal objetivo, projetar e executar a integração de interação natural em simuladores de procedimentos para o setor elétrico, realizando testes de usabilidade com pessoas do setor. Como estudo de caso, foram analisados cenários já desenvolvidos no simulador ATreVEE 3D e desenvolvida uma nova versão do simulador, chamada ATreVEE IN, dessa vez usando o controle Leap Motion, um dispositivo usado para o rastreio das mãos. O ATreVEE IN é composto por ambientes virtuais, cuja interface com o usuário é realizada via comandos gestuais, utilizando uma representação virtual das mãos do usuário dentro do ambiente. Após o desenvolvimento da nova versão, os dois simuladores foram testados por usuários da área de engenharia elétrica, utilizando a aplicação de questionários de usabilidade para a coleta de resultados. Com esses resultados foi possível observar que ambas as versões tiveram desempenho satisfatório, mostrando um potencial para auxiliar o treinamento. E apesar da primeira versão do simulador ter obtido resultados melhores que a versão com interação natural, acredita-se que isso se dá, em parte, pela falta de experiência dos usuários com esse tipo de dispositivo. Usuários que já possuíam experiência com interação gestual obtiveram melhor desempenho na execução das tarefas com o ATreVEE IN.
  • OSWALDO EVARISTO DA COSTA NETO
  • Proposta de uma abordagem sistêmica para o planejamento e monitoramento de atividades em cursos de graduação à distância.
  • Data: 17/06/2015
  • Hora: 14:00
  • Mostrar Resumo
  • Na educação à distância, professores e tutores são responsáveis pela mediação da aprendizagem do aluno, mas para que possa acontecer de maneira satisfatória, se faz necessária a utilização de tecnologias e metodologias que lhes permitam planejar e monitorar as atividades atribuídas aos alunos. O exercício da docência em cursos de graduação à distância tem sido um desafio para os professores das disciplinas curriculares principalmente com relação às atividades atribuídas aos alunos. O presente trabalho de pesquisa apresenta uma metodologia para uma abordagem sistêmica no planejamento e monitoramento de atividades em cursos de graduação à distância que associada à utilização de sistemas de apoio ao ambiente virtual de aprendizagem possibilitará aos professores atribuírem as atividades sem sobrecarregar os alunos do curso.
  • ELIZA RIBEIRO DE OLIVEIRA
  • O Uso de Dispositivos Multi-Sensoriais para Promoção do Brincar em Crianças com Paralisia Cerebral
  • Data: 15/06/2015
  • Hora: 10:00
  • Mostrar Resumo
  • A evolução nas interfaces de usuário tem mostrado uma forte tendência na utilização de interfaces tangíveis, em especial, as interfaces tangíveis que promovem uma experiência sensorial. Nesse contexto, a utilização desse tipo de recurso pode ser interessante em diferentes contextos, onde se destacam os cenários no qual o aspecto sensorial é determinante para a interação, como a atuação das tecnologias assistivas. O objetivo deste estudo é abordar o uso de dispositivos multi-sensoriais na promoção do brincar em crianças com Paralisia Cerebral (PC). A paralisia cerebral (PC) refere-se a uma série de síndromes clínicas caracterizadas por desordens motoras e alterações posturais permanentes que podem ou não estar associadas com disfunção cognitiva e distúrbios da fala. Devido à restrita condição motora, o envolvimento em jogos e brincadeiras se torna difícil para crianças com PC. Nosso desafio é abordar o uso de tecnologias assistivas através do uso de dispositivo multi-sensorial no desenvolvimento de jogos interativos para crianças com PC. O dispositivo multi-sensorial utilizado é uma bola robótica chamada Sphero. O uso de um dispositivo robótico permite manipular a bola remotamente, o que torna este recurso útil para crianças com deficiências físicas. Este estudo será realizado na clínica-escola de terapia ocupacional da Universidade Federal da Paraíba, onde iremos oferecer uma experiência de jogos interativos em intervenções de terapia ocupacional. Serão utilizados instrumentos para a avaliação e caracterização do paciente, bem como para a reavaliação após a intervenção. Serão feitas análises dos escores obtidos em cada instrumento avaliativo, de forma a detectar possíveis ganhos após a utilização do dispositivo multi-sensorial.
  • RAMON NOBREGA DOS SANTOS
  • Uma Abordagem Temporal para Identificação Precoce de Estudantes de Graduação a Distância com Risco de Evasão Utilizando Técnicas de Mineração de Dados
  • Data: 29/05/2015
  • Hora: 14:00
  • Mostrar Resumo
  • Com a utilização de técnicas de mineração de dados, mais comumente os algoritmos de Classificação, pode-se construir modelos preditivos capazes de identificar precocemente um estudante com risco de evasão. Diversos estudos utilizam dados obtidos de um Ambiente Virtual de Aprendizagem (AVA) para a construção de modelos preditivos de desempenho em uma disciplina de um curso. Porém, nenhum estudo foi realizado com o objetivo de desenvolver um modelo de predição de evasão, para um curso de graduação a distância de maior duração, que integre trabalhos que fazem a predição de desempenho a partir de um AVA, possibilitando uma predição da evasão antecipada durante o primeiro semestre. Assim, este trabalho propõe uma abordagem de identificação de evasão em um curso de graduação a distância a partir da utilização da técnica de classificação por regras de decisão para, primeiramente, identificar as disciplinas e os limites de notas que mais influenciam na evasão para que os modelos preditivos de desempenhos em um AVA possam ser mais úteis no tocante a evasão de um aluno ao longo de todo o curso de graduação. Foram realizados experimentos com quatro algoritmos de Regras de Decisão: o JRip, o OneR, o PART e o RIDDOR. A partir da utilização da abordagem temporal proposta foi possível comprovar sua vantagem, uma vez que foram obtidos melhores desempenhos preditivos ao longo dos semestres e foram descobertas importantes regras para a identificação precoce de um estudante com risco de evasão. Entre os algoritmos estudados, JRip e PART obtiveram os melhores desempenhos preditivos. A partir da metodologia proposta de partições, na qual os atributos dos modelos preditivos são aplicados de forma incremental, foi possível aferir ganhos nos desempenhos preditivos e nas qualidades das regras encontradas.
  • ANNA CAROLINA SOARES MEDEIROS
  • Processo de Desenvolvimento de Interfaces de Usuário Baseadas em Gestos
  • Data: 26/05/2015
  • Hora: 15:00
  • Mostrar Resumo
  • A utilização da nossa linguagem corporal para se comunicar com sistemas computacionais é uma característica cada vez mais possível e aplicável no mundo real. Essa fato é potencializado pela evolução das soluções comerciais baseadas em reconhecimentos de gestos. Uma interface de gestos complementa ou substitui a forma de navegação de uma interface convencional, cabe ao desenvolvedor escolher a opção mais adequada para a sua aplicação. Assim quando optamos pelo uso de gestos, os gestos serão responsáveis por acionar as funções oferecidas pelos sistemas. O presente trabalho apresenta um processo de desenvolvimento de interfaces de usuário centrado na escolha de gestos. O processo proposto deve auxiliar designers de interfaces a integrarem interação natural em suas aplicações de forma mais sistemática.
  • JARBELE CASSIA DA SILVA
  • Uma análise das interações discentes em fóruns de discussão online de Ambientes Virtuais de Aprendiz
  • Data: 08/05/2015
  • Hora: 08:30
  • Mostrar Resumo
  • O desenvolvimento de estudos referentes a cursos de educação à distância, ou E-Learning, têm se tornado frequentes no cenário acadêmico-científico atual, visto o número crescente de cursos ministrados nessa categoria de ensino e as possibilidades de colaboração entre os participantes interposto pelos Ambientes Virtuais de Aprendizagem (AVA). As discussões online estabelecidas tornam os alunos engajados na partilha da informação e do conhecimento, de modo a estabelecer perspectivas de interação com outros alunos. Neste sentido, esta dissertação visa investigar o potencial gerado pelo uso de técnicas de Análise de Redes Sociais (ARS) aplicado à análise das interações entre alunos de um curso à distância que estabelecem comunicação em fóruns de discussão online, a fim de conhecer padrões de interação que podem ter influência na aprendizagem do aluno. Os resultados obtidos evidenciam que através da aplicação das métricas de centralidade de grau, centralidade de intermediação e das métricas de comportamento no grupo (grau de coesão e grau de heterogeneidade) é possível perceber que a interação estabelecida nos fóruns de discussão reflete o desempenho dos alunos no curso. Salienta-se também que é possível correlacionar os dados de desempenho dos alunos, com seus índices referentes a aplicação das métricas de ARS mencionadas. Esta pesquisa buscou contribuir à área de E-Learning oferecendo estratégias de análise das interações detectadas em fóruns de discussão online em AVAs, de forma a propiciar aos professores informações de apoio ao desenvolvimento de estratégias para monitoramento e gerenciamento da aprendizagem de alunos em cursos a distância.
  • AYSLÂNYA JERONIMO WANDERLEY
  • Um modelo para avaliação de relevância científica baseado em métricas de Análise de Redes Sociais
  • Data: 30/03/2015
  • Hora: 15:00
  • Mostrar Resumo
  • A tarefa de avaliar a relevância científica de um pesquisador nem sempre é trivial. Geralmente esse processo é baseado em índices que consideram a produção e o impacto do mesmo em sua área de pesquisa. Entretanto, a literatura aponta que tais indicadores tomados isoladamente são insuficientes uma vez que desconsideram os padrões de relação nos quais os pesquisadores se inserem. Além disso, muitos trabalhos já comprovaram que as relações de colaboração exercem forte impacto sobre a relevância de um pesquisador. Nesse contexto, entende-se que a modelagem e análise dessas relações pode ajudar a construir novos indicadores que complementem o processo de avaliação vigente. Sendo assim, o objetivo deste trabalho foi especificar um modelo estatístico que permite avaliar a relevância científica de um pesquisador, definida pela detenção de bolsa de produtividade do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), baseado em métricas aplicadas às suas redes de colaboração científica. Para tanto foram aplicadas métricas de Análise de Redes Sociais (ARS) às redes de colaboração de 1592 docentes vinculados aos Programas de Pós-Graduação na área de Ciência da Computação que posteriormente serviram como base para construção de um modelo de Regressão Logística utilizando a técnica de validação cruzada 10-fold estratificada. O modelo proposto apresentou resultados bastante animadores e demonstrou que as métricas de ARS que mais influenciam na avaliação de relevância de um pesquisador são a Centralidade de Intermediação, o Grau Ponderado, o PageRank e o Coeficiente de Agrupamento Local, tendo as duas primeiras influência positiva e as duas últimas influência negativa. Isso demonstra que pesquisadores que desempenham um papel de intermediador dentro da rede e que costumam manter relacionamentos fortes com seus colaboradores são mais propensos a serem contemplados com bolsas de produtividade, enquanto que aqueles pesquisadores que possuem uma rede mais coesa e costumam colaborar com pesquisadores que já são líderes na sua área têm menor probabilidade de serem bolsistas.
  • ANGÉLICA FELIX MEDEIROS
  • UMA PROPOSTA DE PERSONALIZAÇÃO DE CONSULTAS EM DOCUMENTOS XML BASEADA EM PREFERÊNCIAS CONDICIONAIS
  • Data: 27/03/2015
  • Hora: 10:00
  • Mostrar Resumo
  • O trabalho apresenta uma proposta de extensão da linguagem de consulta XQuery, denominada XQuery-Pref, para suporte a preferências condicionais. Com objetivo de tornar transparente para o usuário a execução de consultas escritas na linguagem XQuery-Pref, utiliza-se um sistema denominado XQPref, que é responsável pela elicitação de preferências dinâmicas e pelo processamento destas consultas personalizadas. Restringimos o escopo deste trabalho a documentos XML, tecnologia essencial para a gestão do conhecimento e divulgação de dados pela web, que diante da sobrecarga da informação, tem despertado a preocupação em personalizar os resultados de consultas de acordo com as necessidades de cada usuário.
  • IGOR LUCENA PEIXOTO ANDREZZA
  • ANÁLISE DE TÉCNICAS DE NORMALIZAÇÃO APLICADAS AO RECONHECIMENTO FACIAL
  • Data: 27/02/2015
  • Hora: 14:00
  • Mostrar Resumo
  • A biometria oferece um mecanismo de autenticação confiável, que identifica os usuários através de suas características físicas e comportamentais. O problema do reconhecimento facial não é trivial, pois existem muitos fatores que influenciam na detecção e no reconhecimento como, por exemplo, a iluminação, a posição da face, cabelo, barba, etc. Este trabalho se propõe a analisar os efeitos de técnicas de normalização geométrica e de iluminação sobre métodos de reconhecimento de face, visando adequar esses métodos para ambientes não controlados. Os resultados mostram que a presença do plano de fundo contribui indevidamente para aumentar as taxas de acerto no reconhecimento de face, fato que ocorre em vários trabalhos presentes na literatura. As técnicas de normalização de iluminação e normalização geométrica, quando realizada com pontos precisos dos centros dos olhos, efetivamente ajudam na tarefa de reconhecimento facial.
  • MÁRCIA VALDENICE PEREIRA DO NASCIMENTO
  • Um método de reconhecimento de indivíduos por geometria da mão
  • Data: 27/02/2015
  • Hora: 10:00
  • Mostrar Resumo
  • Nos últimos anos, o reconhecimento de indivíduos por meio de informações biométricas tem sido cada vez mais adotado nas mais diversas aplicações, sejam elas comerciais, governamentais ou forenses. Uma das razões para essa escolha fundamenta-se nas informações biométricas serem mais difíceis de adulterar, compartilhar, ocultar ou extraviar do que outras alternativas como cartões e senhas. Várias características dos indivíduos, sejam físicas ou comportamentais, podem ser utilizadas em um sistema biométrico, como por exemplo, impressão digital, face, voz, íris, forma de andar, impressão palmar, geometria da mão, entre outras. Diversos trabalhos têm explorado esses e outros traços produzindo mecanismos de reconhecimento cada vez mais seguros e precisos, mas nenhum é imune a falhas e ainda há muito a evoluir e a aprimorar nessa área. Com base nisso, esse trabalho apresenta uma nova proposta de reconhecimento biométrico baseado em geometria da mão. Um banco de dados com 100 indivíduos e amostras de ambos os lados das mãos foi utilizado. O processo de extração de características prioriza o conforto do usuário durante a captura e produz segmentação das mãos e dedos com precisão elevada. Ao todo, 84 atributos foram extraídos de cada indivíduo e o método foi avaliado sob a perspectiva de diferentes abordagens de classificação e verificação. Nos testes de classificação, técnicas de validação cruzada e subamostragem randômica estratificada foram utilizadas. Os experimentos demonstraram resultados competitivos quando comparados a outros métodos do estado da arte em geometria da mão, apresentando 100% de acurácia em diferentes estratégias de classificação e uma taxa EER de 0,75% no processo de verificação.
  • VIRGINIA PINTO CAMPOS
  • Um Sistema de Geração Automática de Roteiros de Autodescrição
  • Data: 27/02/2015
  • Hora: 10:00
  • Mostrar Resumo
  • Um Sistema de Geração Automática de Roteiros de Autodescrição
  • ERICK VAGNER CABRAL DE LIMA BORGES
  • SUMARIZAÇÃO AUTOMÁTICA DE CENAS FORENSES
  • Data: 27/02/2015
  • Hora: 08:00
  • Mostrar Resumo
  • A presença crescente de dispositivos de gravação de vídeo nas mais diversas áreas vêm proporcionando um aumento no uso destas imagens principalmente para fins investigativos. Isto faz com que a utilização de métodos e ferramentas que realizem a análise e o monitoramento automático de ambientes seja cada vez mais necessária para dar suporte técnico e de conhecimento aos investigadores, possibilitando que os resultados alcançados sejam os mais eficientes e eficazes possíveis. Este trabalho descreve o desenvolvimento de métodos de visão computacional que têm como objetivo extrair aspectos relevantes de cenas – imagens individuais, ou quadros ou sequências de quadros de vídeo - e utilizar a informação obtida com o propósito de sumarização. Os métodos propostos visam detectar e analisar movimentação, detectar faces classificando-as por gênero, efetuar reconhecimento de faces, realizar o rastreamento de faces humanas e reconhecer a cor predominante no vestuário de indivíduos. O sistema desenvolvido efetua a extração de informações relevantes, o que auxilia na redução do tempo necessário à inspeção por seres humanos, na interpretação e argumentação de casos e na documentação dos casos. Ao fim do trabalho, os métodos desenvolvidos apresentaram resultados compatíveis com os da literatura.
  • EWERTON LOPES SILVA DE OLIVEIRA
  • Classificação de tópicos para textos curtos em redes sociais
  • Data: 23/02/2015
  • Hora: 14:00
  • Mostrar Resumo
  • Nos últimos anos um grande número de pesquisas científicas fomentou o uso de informações da web como insumos para a vigilância epidemiológica e descoberta/mineração de conhecimentos relacionados a saúde pública em geral. Ao fazerem uso de conteúdo das mídias sociais, principalmente tweets, as abordagens propostas transformam o problema de identificação de conteúdo em um problema de classificação de texto, seguindo o cenário de aprendizagem supervisionada. Neste processo, algumas limitações atribuídas à representação das mensagens, atualização de modelo assim como a extração de atributos discriminativos, surgem. Partido disso, a presente pesquisa propõe investigar o impacto no desempenho de classificação de mensagens sociais curtas através da expansão contínua do conjunto de treinamento tendo como referência a medida de confiança nas predições realizadas. Paralelamente, a pesquisa também teve como objetivo avaliar alternativas para ponderação e extração de termos utilizados para a classificação, de modo a reduzir a dependência em métricas baseadas em frequência de termos. Restringindo-se à classificação binária de tweets relacionados a eventos de saúde e escritos em língua inglesa, os resultados obtidos revelaram uma melhoria de F1 de 9%, em relação a linha de base utilizada, evidenciando que a ação de expandir o classificador eleva o desempenho de classificação, também para o caso da classificação de mensagens curtas em domínio de saúde. Sobre a ponderação de termos, tem-se que a principal contribuição obtida, está na capacidade de levantar termos característicos do conjunto de dados e suas classes de interesse automaticamente, sem sofrer com limitações de frequência de termos, o que pode, por exemplo, ser capaz de ajudar a construir processos de classificação mais robustos e dinâmicos ao qual façam uso de listas de termos específicos para indexação em consultas à bancos de dados externos (background knowledge). No geral, os resultados apresentados podem beneficiar, pelo aprimoramento das hipóteses levantadas, o surgimento de aplicações mais robustas no campo da vigilância, controle e contrapartida à eventos reais de saúde (epidemiologia, campanhas de saúde, etc.), por meio da tarefa de classificação de mensagens sociais curtas.
  • MOACIR LOPES DE MENDONÇA JÚNIOR
  • Metodologia para Análise de Relevância de Publicações através de Rede de Citações
  • Data: 13/02/2015
  • Hora: 14:00
  • Mostrar Resumo
  • A pesquisa científica é definida como um conjunto de atividades que têm por objetivo a descoberta de novos conhecimentos de interesse para a solução de problemas existentes. O conhecimento científico não se resume na descoberta de fatos e leis novas, mas também em sua publicação. Trata-se de obter e comunicar resultados através de formas de produção científica. Visando compreender o complexo sistema de produção científica inúmeras técnicas de análise vêm sendo aplicadas em repositórios digitais. Essas técnicas objetivam a identificação de produções cientificas relevantes baseadas em indicadores. Neste sentido o presente trabalho de pesquisa tem como objetivo criar uma metodologia que possibilite da melhor maneira possível identificar publicações que são relevantes a determinadas áreas de conhecimento. Para isto utilizamos três contextos, o primeiro sobre a área de análise de redes sociais, o segundo sobre os anais dos 20 anos do webmedia e por último sobre área de sistemas embarcados. Como fonte de estudo nossa ferramenta de software conseguiu diversos resultados referentes as áreas de conhecimento entre ele a evolução de publicações para os veículos de publicação mais relevantes, a classificação das comunidades pertencentes a rede, e entre outros resultados.
  • DANILO DANTAS DA NÓBREGA TAVARES
  • Um modelo de features para jogos sérios voltados à saúde: uma abordagem baseada em linha de produtos de software
  • Data: 02/02/2015
  • Hora: 09:00
  • Mostrar Resumo
  • A indústria de jogos sérios tornou-se uma das mais expressivas no ramo do entretenimento. Porém a produção de jogos sérios em geral tem enfrentado o desafio de atender a alta demanda do mercado. Para isso, uma das soluções é transformar a produção quase artesanal dos jogos sérios para à saúde numa espécie de manufatura, onde componentes são reusados, aumentado a produtividade. Tais jogos representam situações reais em ambientes virtuais, podendo ser utilizados para treinar, monitorar, capacitar e até mesmo para manter hábitos saudáveis. Esses jogos possuem várias características (features) em comum, onde podemos fazer o reuso dessas características para gerar novos jogos. Assim, foi realizada uma revisão sistemática da literatura para criar o modelo de features para jogos sérios voltados à saúde. Posteriormente, foi realizada a análise de vários jogos disponíveis na Internet, a fim de aprimorar o modelo de features. O modelo de features resultante foi avaliado quanto a sua utilidade e usabilidade através de um experimento envolvendo alunos de um curso de graduação.
2014
Descrição
  • ANA PAULA NUNES GUIMARAES
  • Recomendações para Avaliação da Experiência de Usuário em Aplicativos Móveis para Surdos
  • Data: 09/12/2014
  • Hora: 10:00
  • Mostrar Resumo
  • O uso de dispositivos móveis traz grandes benefícios de conectividade para seus usuários. Contudo, o acesso à informação através desses dispositivos representa um novo desafio de interação para os usuários que possuem algum tipo de deficiência. Atualmente, a maioria das aplicações móveis possui barreiras de acessibilidade que dificultam ou impossibilitam a utilização por diversos indivíduos com necessidades especiais. Visando garantir o acesso ao conteúdo a todos os usuários independentemente de limitações físicas e mentais, este trabalho propõe um modelo de avaliação de interfaces de usuário voltado à acessibilidade em dispositivos móveis. O modelo proposto leva em consideração a experiência de usuários sem deixar de lado as especificidades do contexto móvel e do cenário de acessibilidade. Como resultados parciais, tem-se um conjunto de percepções observadas a partir de testes realizados ao avaliar uma aplicação móvel desenvolvida para deficientes auditivos. Resultados mostram os desafios e novas perspectivas ao avaliar a acessibilidade móvel, dado que poucos métodos consideram de forma acoplada esses dois contextos.
  • SARAH SOARES DE OLIVEIRA
  • ESTRATÉGIAS PARA GRAVAÇÃO E REPRODUÇÃO DE EXPERIÊNCIA TRIDIMENSIONAL EM TELEMEDICINA
  • Data: 03/10/2014
  • Hora: 10:00
  • Mostrar Resumo
  • A Telemedicina é um campo que vem crescendo ao longo dos últimos anos e tem como principais benefícios a colaboração, o ensino à distância, a prevenção e o tratamento de doenças. A Computação Gráfica visa estudar, entre outros aspectos, a geração, a manipulação e a análise de imagens e modelos tridimensionais através do computador. A utilização de técnicas de Computação Gráfica em conjunto com sistemas de Telemedicina pode enriquecer as transmissões de vídeos de cirurgias, facilitar o entendimento dos problemas dos pacientes, melhorar a comunicação entre os cirurgiões e toda a equipe médica e prover melhorias em relação ao ensino e à aprendizagem. A proposta deste trabalho é elaborar e desenvolver uma estratégia para gravação e posterior reprodução de conteúdo tridimensional que simula as estruturas anatômicas do corpo humano, utilizados durante uma transmissão cirúrgica em tempo real. A experiência multimídia gerada pelos múltiplos fluxos de áudio, vídeo e modelos 3D é de grande relevância para os estudantes de Medicina que acompanham a transmissão, tanto ao vivo quanto de forma não simultânea e subsequente ao procedimento cirúrgico. Diante desse cenário, surge a necessidade de uma estratégia para viabilizar a gravação da experiência 3D no contexto da ferramenta Arthron, que já possui módulos para gravação de áudio e vídeo de cirurgias transmitidas em tempo real, mas não abrangem a gravação da experiência tridimensional.Assim, um sistema multimídia poderá utilizar a estratégia proposta para gravar algum conteúdo extra transmitido ao vivo e que posteriormente necessite ser reproduzido. Com a estratégia proposta, pretende-se fazer com que uma maior quantidade de membros de equipes médicas possa ter acesso a materiais gerados através de fluxos multimídia em tempo real, promovendo uma ampla capacitação independente de distâncias geográficas.
  • PEDRO HENRIQUE TOLENTINO DE MELO NOGUEIRA
  • Algoritmos para Alocação de Rota e Comprimento de Onda com Restrições de Energia e da Camada Física em Redes Ópticas
  • Data: 31/07/2014
  • Hora: 14:00
  • Mostrar Resumo
  • Esta dissertação propõe dois novos algoritmos de roteamento e alocação de comprimento de onda, a saber, o EA-RWA (Energy Aware Routing and Wavelength Assigment) e o IEA-RWA (Impairment Aware Routing and Wavelength Assigment). Os algoritmos terão como característica, melhorar a eficiência energética em redes ópticas transparentes dinâmicas, sendo o primeiro mais simples, pois não se preocupa com as imperfeições da camada física. O EA-RWA é comparado com um algoritmo RWA tradicional/clássico que não leva em conta, no momento de admissão de conexões, restrições da camada física e nem consumo de energia. Já o IEA-RWA é comparado com um algoritmo RWA que leva em conta restrições da camada física (IA-RWA). As simulações numéricas mostram que o IEA-RWA apresenta melhor desempenho em vários aspectos.
  • IVANILDO ALVES DE MEDEIROS
  • DL-TUTOR: UMA FERRAMENTA DE APOIO À GESTÃO DA ATIVIDADE DA TUTORIA EM SISTEMAS DE EDUCAÇÃO A DISTÂNCIA
  • Data: 31/07/2014
  • Hora: 10:00
  • Mostrar Resumo
  • É possível observar que o atual cenário da educação a distância nas IES Brasileiras tem mostrado um aumento na procura por Cursos a Distância. O MEC divulgou que este aumento foi de cerca de quinze por cento das matriculas realizadas nos cursos de nível superior (MEC 2013). Esta situação aponta claramente para uma expansão nas redes de ensino em ofertar cursos na modalidade a distância. Para poder atender e se adequar a este novo nível de complexidade é necessário adaptar os sistemas de acadêmicos e contar com ambientes virtuais de aprendizagem – AVAs - de forma a permitir que professores e alunos possam se beneficiar das novas facilidades oferecidas por estes ambientes. Verifica-se, entretanto, que os sistemas de gestão acadêmica e gestão da aprendizagem disponíveis não atendem as reais necessidades administrativas e pedagógicas dos coordenadores e professores no âmbito da EAD. Além disso, novos papéis foram criados para atender, de forma adequada, aos alunos de EAD, como por exemplo, o papel do Tutor. O foco central deste trabalho foi pesquisar as reais dificuldades encontradas por professores e coordenadores de cursos a distância na gestão das atividades dos Tutores, estabelecer as funcionalidades em um sistema desenvolvido para consulta aos dados das atividades dos tutores em um ambiente de ensino-aprendizagem, bem como oferecer elementos para auxiliar e agilizar a prática de coordenadores e professores na gestão das atividades dos tutores nas salas virtuais de aprendizagem. Para tanto, foram levantados os requisitos funcionais, realizada avaliação da plataforma Moodle, e implementada uma aplicação WEB para atender à gestão de atividades dos tutores no Moodle. O resultado final foi uma ferramenta denominada DL-TUTOR
  • RENE PEREIRA DE GUSMAO
  • O Uso de Metaheurísticas para o Problema de Roteamento e Atribuição de Espectro em Redes Ópticas Elásticas
  • Data: 31/07/2014
  • Hora: 10:00
  • Mostrar Resumo
  • Neste trabalho foi estudado o problema de roteamento e alocação de rota (RSA) em redes ópticas elásticas. Este é um problema similar ao problema de roteamento e alocação de comprimentos de onda, este último sendo característico em redes ópticas roteadas em comprimentos de onda. O problema RSA tem como objetivo atribuir a menor quantidade de recursos de uma rede óptica elástica de tal forma que consiga atender ao máximo número de demandas definidas na matriz de tráfego cliente. Além do estudo sobre o problema, neste trabalho foram implementadas duas metaheurísticas, sendo elas o Iterated Local Search (ILS) e o Greedy Randomized Adaptative Search Procedure (GRASP), as quais utilizam os modelos matemáticos SSA e LP-CA na fase de busca local. Para implementar os modelos matemáticos e metaheurísticas, foi utilizada a IDE IBM iLOG CPLEX. Os resultados obtidos são apresentados através de gráficos, os quais demonstraram que as metaheurísticas conseguiram ser eficientes e competitivas, apresentando soluções de boa qualidade em um tempo computacional aceitável e até menor que os resultados apresentados pelos modelos exatos. Por fim, este texto apresenta uma discussão sobre os diferenciais e limitações deste trabalho, e apresenta direcionamentos para trabalhos futuros neste campo de estudo.
  • WESLEY WILLAME DIAS MENEZES
  • METAHEURÍSTICAS GRASP E ILS APLICADAS AO PROBLEMA DA VARIABILIDADE DO TEMPO DE RESPOSTA
  • Data: 31/07/2014
  • Hora: 10:00
  • Mostrar Resumo
  • Com o advento dos avanços tecnológicos, cada vez mais se procura soluções que utilizem menos recursos, sejam mais rápidos e de baixo custo. Em virtude disso, este trabalho propôs uma abordagem metaheurística híbrida utilizando Greedy Randomized Adaptive Search Procedure (GRASP) e Iterated Local Search (ILS) aplicados ao Problema da Variabilidade do Tempo de Resposta. Este problema pode envolver desde alocação de recursos escassos, como por exemplo, máquinas industriais ou salas de reunião, passando pelo agendamento de clientes de um banco que requerem certas condições, o planejamento das propagandas de TV ou o percurso feito por caminhões de empresas transportadoras, dentre outros. Para a aplicação do procedimento, foram utilizados os movimentos de inserção de símbolos, deslocamento do mesmo, permuta de posição entre símbolos e de um movimento chamado double brigde, que é uma mistura dos movimentos de deslocamento e permutação envolvendo símbolos opostos. As estruturas de vizinhança compostas basearam-se nos movimentos descritos anteriormente, variando a quantidade de símbolos envolvidos. Desta forma, os resultados obtidos demonstram que tais procedimentos trouxeram resultados satisfatórios ao problema e condizentes quando comparados com a literatura.
  • ANDRE CALISTO SOUZA M GUEDES
  • Um Estudo sobre os Impactos dos Relacionamentos Sociais na Avaliação do Mérito Científico
  • Data: 31/07/2014
  • Hora: 09:00
  • Mostrar Resumo
  • Técnicas de análise de redes sociais podem ser utilizadas para extrair conhecimento da rede por meio da análise das interações entre seus membros. Neste trabalho pretendemos aplicar técnicas de análise de redes sociais a redes formadas pela colaborações científicas entres pesquisadores. Pretendemos com isso avaliar se as relações de colaboração entre pesquisadores possuem alguma influência na avaliação do mérito científico. Utilizaremos como estudos de caso o processo de concessão das chamadas bolsas de produtividade em pesquisa do CNPQ na área de Ciência da Computação.
  • ANDRE CALISTO SOUZA M GUEDES
  • Um Estudo sobre os Impactos dos Relacionamentos Sociais na Avaliação do Mérito Científico
  • Data: 31/07/2014
  • Hora: 09:00
  • Mostrar Resumo
  • Técnicas de análise de redes sociais podem ser utilizadas para extrair conhecimento da rede por meio da análise das interações entre seus membros. Neste trabalho pretendemos aplicar técnicas de análise de redes sociais a redes formadas pela colaborações científicas entres pesquisadores. Pretendemos com isso avaliar se as relações de colaboração entre pesquisadores possuem alguma influência na avaliação do mérito científico. Utilizaremos como estudos de caso o processo de concessão das chamadas bolsas de produtividade em pesquisa do CNPQ na área de Ciência da Computação.
  • HIDELBERG OLIVEIRA ALBUQUERQUE
  • GenNormas: Um Processo Genérico para Conformidade Legal na Engenharia de Requisitos
  • Data: 24/07/2014
  • Hora: 11:00
  • Mostrar Resumo
  • O Framework Nòmos estende o Framework i* para alcançar a conformidade legal dos requisitos de sistemas de informação. A conformidade legal é uma exigência imposta por departamentos governamentais, a partir do conteúdo encontrado nas normas jurídicas. O não-cumprimento destas exigências por parte de um software pode acarretar transtornos legais e financeiros às empresas e suas soluções. Por outro lado, o fato do Nòmos ser dependente do i* pode ser uma barreira para a sua ampla adoção na indústria. Portanto, este trabalho propõe tornar o Nòmos independente de notação de modelagem de processos de negócio ou de requisitos de software, ao invés de ser aplicado exclusivamente no i*, como proposto originalmente.
  • LEANDRO FIGUEIREDO ALVES
  • Arquitetura Paralela em CUDA para Implementação do Algoritmo Non Local Means (NLM)
  • Data: 18/07/2014
  • Hora: 14:00
  • Mostrar Resumo
  • A área de processamento de imagens digitais está evoluindo continuamente e, embora as áreas de aplicações sejam diversas, os problemas encontrados comumente convergem para os métodos capazes de melhorar a informação visual para a análise e interpretação. Uma das principais limitações correlatas com precisão de imagens é o ruído, ou perturbações na imagem. O método Non-Local Means (NLM) apresentado por Buades, Coll e Morel (2004) destaca-se como o método mais eficiente para filtragem de ruído. Apesar de possuir resultados de filtragem que se sobressaem em relação aos demais disponíveis na literatura, sua complexidade computacional é um empecilho para torná-lo prático em aplicações computacionais de uso geral, especialmente as de tempo real. Atualmente há na literatura científica diversos trabalhos visando a otimização do NLM, porém muitos sem ganhos consideráveis para facilitar o uso, o estudo e o aperfeiçoamento do método. Este trabalho apresenta novas propostas para reduzir a complexidade computacional do algoritmo alinhado com uma implementação otimizada em hardware densamente paralelo, onde se destacam as placas gráficas - ou GPU's - que possuem desempenho superior aos processadores de uso geral para dados vetoriais. Os resultados obtidos das propostas alcançaram um tempo de execução de 16.000 a 360.000 vezes mais rápido e com filtragem mais eficaz que o NLM original.
  • ANDREA FERNANDA FONTES BEZERRA
  • Geração de layout de interfaces gráficas baseado em ontologias para documentos do Registro Eletrônico em Saúde
  • Data: 23/05/2014
  • Hora: 14:00
  • Mostrar Resumo
  • -
  • ANDREA FERNANDA FONTES BEZERRA
  • Geração de layout de interfaces gráficas baseado em ontologias para documentos do Registro Eletrônico em Saúde
  • Data: 23/05/2014
  • Hora: 14:00
  • Mostrar Resumo
  • -
  • DOUGLAS DOS SANTOS FERREIRA
  • Interação Natural por Meio de Gestos para Apoio a Docentes no Processo de Ensino em Saúde
  • Data: 29/04/2014
  • Hora: 14:00
  • Mostrar Resumo
  • No campo de interação humano-computador, métodos de Interação Natural vem ganhando destaque por proporcionarem a comunicação entre usuário e máquina de maneira fácil e intuitiva, por meio da interpretação de ações naturais das pessoas. Os dispositivos de rastreamento óptico são importantes nesse contexto, pois proporcionam o rastreamento do corpo humano, obtendo informações que podem ser usadas para prover a interação de forma natural. No âmbito de desenvolvimento de sistemas de Realidade Virtual para saúde, há a necessidade de se produzirem formas de interação que se assemelhem àquelas comumente realizadas pelas pessoas em atividades do dia-a-dia. Devido às suas características intuitivas, a Interação Natural pode exercer um papel importante nesse cenário, beneficiando o processo de comunicação humano-computador. É importante destacar que alguns comportamentos naturais podem ser de origem cultural, gerando a necessidade de se identificar as especificidades do público-alvo no que diz respeito à interação com aplicações que proveem interfaces naturais. O objetivo geral deste trabalho é propor um conjunto de técnicas de Interação Natural por meio de gestos rastreados por dispositivos ópticos em sistemas de Realidade Virtual para apoio a docentes de saúde em atividades letivas. Este trabalho inclui o desenvolvimento e validação de um módulo de Interação Natural para um framework de desenvolvimento de sistemas de Realidade Virtual para saúde.
  • EDUARDO DE LUCENA FALCAO
  • Deaf Accessibility as a Service: uma Arquitetura Escalável e Tolerante a Falhas para o Sistema de Tradução VLIBRAS
  • Data: 10/03/2014
  • Hora: 09:00
  • Mostrar Resumo
  • xx
  • THALLES ROBSON BARBALHO
  • Um Jogo Social para TV Digital Interativa
  • Data: 20/02/2014
  • Hora: 15:00
  • Mostrar Resumo
  • Os jogos sociais são um fenômeno amplamente difundido na Web. Eles atraem milhões de jogadores e ampliam suas fronteiras a um público cada vez mais heterogêneo. Isto se deve muito pela popularidade das redes sociais onde muitos desses jogos são acomodados. Ao mesmo tempo, existe uma convergência cada vez mais granular entre TV e Web que traz para a TV muitas das aplicações que também fazem sucesso na Web. Assim, pode-se aproveitar da audiência da Web, para alavancar o interesse pelo conteúdo televisivo. Porém, ambas as plataformas diferem-se substancialmente: cada uma delas tem padrões de interação e características próprias. Esse trabalho analisa essas diferenças e sutilezas para propor uma adaptação mais adequada entre conteúdo da Web para TV. Busca-se um entendimento do que são os jogos sociais e suas mecânicas comuns, baseadas em interações que aumentam a empatia e a reciprocidade, tornando os jogos sociais atrativos e envolventes. Pretende-se ir ao encontro das aplicações sociais para TV Interativa atualmente disponíveis, na tentativa de determinar quais padrões de interação encontrados nos jogos sociais para Web também fazem sentido para TV. O objetivo principal é estabelecer uma série de requisitos para jogos sociais adequada à realidade televisiva, especialmente ao middleware Ginga. Um protótipo foi implementado em NCL/Lua, um conjunto de linguagens que possibilita a construção de aplicativos interativos para Ginga, como prova de conceito. Entrevistas foram realizadas junto a uma amostra de usuários para avaliar o protótipo.
  • THIAGO RODRIGUES MEDEIROS
  • Análise e Implementação de Algoritmos para a Aprendizagem por Reforço
  • Data: 14/02/2014
  • Hora: 14:00
  • Mostrar Resumo
  • O Aprendizado por Reforço é um subcampo do Aprendizado de Máquina e pode ser definido como um problema de aprendizado. Um sistema inteligente que enfrenta esse problema, entende a partir de recompensas, se as ações que está realizando no ambiente são boas ou ruins. Existem vários métodos e técnicas encontradas na literatura para resolver os problemas de aprendizado por reforço, no entanto, cada uma delas possuem suas vantagens e desvantagens. A partir disso, esse trabalho apresenta uma biblioteca de aprendizado por reforço, chamada AI-RLLibrary. A AI-RLLibrary é uma biblioteca que possui o objetivo de facilitar, organizar e promover a reusabilidade de código, para a implementação de sistemas que possuem esse problema de aprendizado. Para a sua construção, foi realizado um levantamento bibliográfico dos principais métodos que solucionam o problema de aprendizado por reforço, visando a análise estatística dos mesmos, com o objetivo de encontrar vantagens e desvantagens e a partir dos resultados obtidos, modelar e implementar a biblioteca com base no método que obteve melhor exito na análise. Nesta dissertação está descrito todo o processo deste trabalho, desde o levantamento bibliográfico a análise dos métodos e construção da biblioteca.
  • MANOEL DE ALBUQUERQUE LIRA AMARO
  • Consultas Semânticas Baseadas em Linked Data para Ambientes de Convergência Digital (TVDi e Web)
  • Data: 12/02/2014
  • Hora: 10:00
  • Mostrar Resumo
  • O surgimento da TV Digital trouxe, além da alta definição, o potencial da interatividade e metadados relativos à programação da TV. Porém, algumas informações disponibilizadas pelas emissoras podem não ser suficientes para o usuário tomar uma decisão sobre o que vai assistir. Esse trabalho tem como objetivo propor uma abordagem de Consultas Semânticas no ambiente da TV Digital Interativa baseada nos conceitos e padrões da Web Semântica, especificando uma arquitetura de Serviço Web com o objetivo de prôver um meio de enriquecimento dos metadados vindos da emissora, expandindo as informações e adicionando relacionamentos semânticos em um grafo de dados provenientes da nuvem Linked Data. Um Serviço Web de Consulta Semântica integrado à plataforma Knowledge-TV foi desenvolvido para validar essa abordagem.
  • VINICIUS SOUZA DOS SANTOS
  • Uma Abordagem para Seleção de Equipes Tecnicamente Qualificadas para Implementação de Projetos de Software
  • Data: 11/02/2014
  • Hora: 08:00
  • Mostrar Resumo
  • Devido às necessidades atuais e grande demanda de produtos de software com cada vez mais qualidade, várias abordagens para desenvolvimento de software foram propostas. Entre estas, Linha de Produtos de Software (LPS) surgiu como uma abordagem promissora para a melhoria da qualidade de software e redução de custos e prazos devido sua alta capacidade de reúso. Outra abordagem promissora que tem sido adotada pelas organizações, como consequência da globalização, é o Desenvolvimento Distribuído de Software (DDS), que possibilita encontrar mão de obra qualificada e custos mais atrativos em empresas espalhadas pelo mundo. Ao adotar conjuntamente as abordagens de LPS e DDS, especialistas de domínio podem ser encontrados em várias equipes terceirizadas ou mesmo equipes de subsidiárias ou filiais localizadas em qualquer parte do mundo. Todavia, mesmo utilizando-se dessas abordagens que visam melhorar a qualidade dos produtos de software criados, não se pode garantir a qualidade dos mesmos se as equipes não possuírem os conhecimentos necessários e específicos para implementação dos diversos módulos de software. Assim, surge uma questão primordial: quais equipes são tecnicamente mais qualificadas para desenvolver cada módulo identificado num projeto de software? Considerando apenas dez equipes e dez módulos de software, é possível identificar 10.000.000.000 combinações possíveis entre módulos e equipes. Claramente, esse é um processo complexo para ser realizado pelo gerente de projetos utilizando apenas sua experiência, uma vez que um grande número de combinações pode ser identificado com um número relativamente pequeno de equipes e módulos de software. Assim, qualquer decisão tomada de maneira ad-hoc pode ser complexa, ineficiente e sujeita a erros. A fim de fornecer suporte para escolha de equipes distribuídas de desenvolvimento de software, podendo inclusive o projeto estar integrado em um cenário de Linhas de Produtos de Software, este trabalho apresenta uma abordagem de apoio à decisão que identifica um conjunto de equipes qualificadas tecnicamente para o desenvolvimento de cada módulo de software, baseado em requisitos técnicos dos módulos e capacidades técnicas das equipes. A abordagem proposta está estruturada em quatro etapas. A primeira tem a intenção de produzir um artefato que representa os requisitos técnicos esperados para desenvolver cada módulo de software. Com base em tais requisitos, a segunda etapa tem por objetivo representar as habilidades técnicas de todas as equipes candidatas. Em seguida, a terceira etapa visa à definição de uma política que rege a seleção de equipes. Por fim, a quarta etapa processa as informações coletadas nas fases anteriores em um algoritmo de lógica fuzzy e realiza a seleção das equipes. Como saída, para cada módulo de software é gerado uma recomendação que indica o conjunto de equipes candidatas que possuem as qualificações técnicas mais adequadas para implementar os módulos de softwares segundo a política de seleção adotada.
  • DANILO CARLOS GOUVEIA DE LUCENA
  • Classificação Supervisionada com Programação Probabilística
  • Data: 10/02/2014
  • Hora: 14:00
  • Mostrar Resumo
  • Mecanismos de inferência probabilísticos estão na intersecção de três áreas: estatística, linguagens de programação e sistemas de probabilidade. Esses mecanismos são utilizados para criar modelos probabilísticos e auxiliam no tratamento incertezas. As linguagens de programação probabilísticas auxiliam na descrição de alto nível desses tipos de modelos. Essas linguagens facilitam o desenvolvimento abstraindo os mecanismos de inferência de mais baixo nível, favorecem o reuso de código e auxiliam na análise dos resultados. Este estudo propõe a análise dos mecanismos de inferência implementados pelas linguagens de programação probabilísticas e apresenta estudos de caso dessas linguagens aplicados em sistemas de processamento de linguagem natural.
  • LARISSA LEONCIO PINHEIRO
  • Uma Abordagem Ontológica para Recomendação de Equipes Qualificadas em Projetos de Desenvolvimento Distribuído de Linhas de Produtos de Software
  • Data: 10/02/2014
  • Hora: 10:00
  • Mostrar Resumo
  • As iniciativas de componentização de software e de desenvolvimento de software orientado a objetos, na década de 80, despertaram o interesse de desenvolvedores para as oportunidades e vantagens da reutilização de código, gerando assim o reuso em diversas etapas do desenvolvimento, como, por exemplo, documentação, especificação e modelagem, aumentando assim a busca por melhores oportunidades de negócio, sejam para reduzir custos de desenvolvimento ou obter ganhos de produtividade. A evolução destas ideias levou a formulação do modelo de Linhas de Produtos de Software, que representa um deslocamento no foco do paradigma tradicional de desenvolvimento de software. Dentro desse novo paradigma, as organizações que antes abordavam o desenvolvimento de software projeto a projeto, devem agora concentrar os seus esforços na criação e manutenção de uma linha de produtos de software, que serve de base para a produção de uma coleção de produtos pertencentes a uma “família”. Segundo [Clemente, 2002], um projeto de implantação de uma linha de produtos de software pode ser considerado um projeto de adaptação a uma tecnologia, ou a uma nova maneira de fazer negócio. Especificamente, no caso de linhas de produtos, ambas as definições se aplicam, tornando o projeto ainda mais delicado. Como toda mudança tecnológica, esse tipo de projeto deve envolver uma avaliação da situação atual da empresa, uma articulação do estado desejado e a elaboração de um plano para atingir este estado. No caso específico de linhas de produtos de software, por se tratar de um modelo que interfere diretamente na maneira de trabalhar da empresa, fatores extratecnológicos devem ser considerados, tais como: a adaptabilidade das pessoas, o tipo de treinamento necessário e a preparação do cliente para a nova maneira de trabalhar. Com o intuito de auxiliar na recomendação de equipes qualificadas em projetos de desenvolvimento distribuído de linhas de produtos de software, esta dissertação apresenta uma abordagem ontológica de apoio à decisão de gerentes de projetos, cujo objetivo é identificar um conjunto de equipes qualificadas para implementar cada módulo de software, levando em consideração os requisitos técnicos dos módulos e as habilidades técnicas das equipes. A abordagem proposta está estruturada em quatro etapas. A primeira etapa tem o objetivo de produzir um modelo de descrição que representa os requisitos técnicos esperados para implementar cada módulo de software. A segunda etapa tem o propósito de gerar um modelo de descrição que representa as habilidades técnicas das equipes candidatas a implementar os módulos de software. A terceira etapa tem o intuito de definir políticas para selecionar as equipes habilitadas a implementar os módulos de software. E, por fim, explorando uma base de dados ontológica, a quarta etapa processa as informações obtidas nas etapas anteriores e realiza a seleção das equipes habilitadas para a implementação dos módulos de software. Sendo assim, como resultado, para cada módulo de software, são geradas recomendações que indicam as equipes candidatas que possuam as habilidades técnicas mais adequadas para implementar os módulos de software.
  • SASKYA THEREZA ALVES GURGEL
  • Análise de Técnicas de Implementação Paralela para Treinamento de Redes Neurais em GPU
  • Data: 31/01/2014
  • Hora: 14:00
  • Mostrar Resumo
  • Com a crescente expansão do volume de dados disponíveis e a latente necessidade de transformá-los em conhecimento e informação, se faz necessário o desenvolvimento de técnicas capazes de realizar a análise destes dados em tempo hábil e de uma maneira eficiente. Redes Neurais promovem uma análise de dados capaz de classifica-los, como também, predizem informações sobre estes. Entretanto, Redes Neurais propõem um modelo natural de computação paralela que requer técnicas de implementação com alto poder de processamento. O crescente desenvolvimento do hardware paralelo oferece ambientes com poder computacional cada vez mais robusto. A GPU classifica-se como hardware capaz de processar implementações paralelas de uma maneira eficiente e a um custo em constante redução. Sendo assim, apresenta-se uma técnica de implementação paralela de Redes Neurais com processamento em GPU. Este trabalho visa realizar uma análise comparativa entre diferentes técnicas de implementação encontradas na literatura e a técnica proposta neste trabalho. Resultados experimentais indicam a sobressaliência do modelo paralelo quando comparado a uma implementação sequencial com processamento em CPU.
  • WANDERSON GOMES DE SOUZA
  • Um Estudo de Casos para Auxílio à Definição de um Modelo de Portabilidade na Implementação de Algoritmos Simulados em Robôs Reais
  • Data: 31/01/2014
  • Hora: 14:00
  • Mostrar Resumo
  • O desenvolvimento de algoritmos voltados para sistemas robóticos, em ambientes de simulação, auxilia na identificação e antecipação de muitos problemas antes mesmo de serem testados em ambientes reais. Porém, nada garante que um algoritmo avaliado em uma plataforma de simulação funcione quando migrado para robôs reais. A interferência de diversos fatores, como propriedades dos motores e sensores, bem como a falta de uma metodologia necessária para interação simulação/realidade, se caracteriza como um dos principais problemas desta transição, de modo que, existe um grande "gap" conceitual entre o desenvolvimento para ambientes reais e simulados. Este trabalho tem o objetivo de contribuir com a formalização de um modelo conceitual que evidencie o processo de transição, no qual é possível destacar as peculiaridades que carecem de uma maior atenção por parte dos desenvolvedores. Para isso, como estudo de casos, foi desenvolvido um algoritmo de anticolisão, que engloba diversas características de um sistema robótico, sendo realizada sua implementação tanto no simulador Unity3D, quanto em robôs reais desenvolvidos na plataforma Arduino. Os resultados foram obtidos e comparados através de uma análise quantitativa de gráficos originados pelo MATLAB. Todas as alterações necessárias foram classificadas e avaliadas, de forma que possamos ter uma ideia do modelo de transição inicial, o qual formalize as principais particularidades do projeto.
  • PEDRO BATISTA DE CARVALHO FILHO
  • Gerenciamento de Faltas em Grades Computacionais: Um Mapeamento Sistemático de Literatura
  • Data: 31/01/2014
  • Hora: 13:00
  • Mostrar Resumo
  • Fundamentação: Uma grade computacional normalmente é formada por uma infra-estrutura de hardware e software heterogêneos ultrapassando limites administrativos. Essa característica aumenta a dificuldade na identificação de possíveis falhas que podem provocar uma parada inesperada da atividade submetida. Assim, um trabalho que mapeie as soluções já criadas por pesquisadores pode ajudar na identificação de lacunas e/ou saturação na área de gerenciamento de faltas. Objetivos: Este trabalho visa identificar, de forma sistemática, lacunas e áreas pouco exploradas nos trabalhos científicos focados no gerenciamento de faltas em grades computacionais com o intuito de auxiliar no melhor direcionamento de futuros esforços em pesquisas na área. Metodologia: Para este trabalho, é utilizado a metodologia de mapeamento sistemático, sendo a pesquisa composta por três fases para seleção dos estudos primários. Inicialmente foram obtidos dos engenhos de busca 8644 estudos primários, porém, após realizado o processo de triagem, restaram 257 estudos com auto grau de relevância para a área de pesquisa abordado neste mapeamento. Conclusão: Através da sumarização e classificação dos dados extraídos, identificou-se que pouco se explorou as técnicas de prevenção, previsão e remoção de falta. Dentre o grupo de estudo relacionados que abordam a tolerância a falta, identificamos uma lacuna no grupo de estudos que utilizam técnicas a nível de workflow.
  • PABLO ANDREY ARRUDA DE ARAUJO
  • Análise da mobilidade urbana através de dados da rede de telefonia móvel celular
  • Data: 31/01/2014
  • Hora: 08:00
  • Mostrar Resumo
  • Com o crescimento econômico vivido nos últimos anos, muitas cidades brasileiras têm também se deparado com problemas como o aumento populacional, congestionamento de veículos e a violência. Ao mesmo tempo, o poder aquisitivo dos habitantes tem crescido, permitindo que muitos pudessem adquirir novos equipamentos, como os telefones celulares, tendo o Brasil ultrapassado a barreira de um telefone celular por habitante. Com esse cenário, surgiram novas áreas a serem exploradas em pesquisas. Este trabalho analisou como o uso de sistemas de simulação computacional pode ser utilizado no processo de monitoramento urbano, utilizando dados da rede de telefonia móvel celular.
  • ANGELO LEMOS VIDAL DE NEGREIROS
  • Desenvolvimento e Avaliação de Simulação Distribuída para Projeto de Sistemas Embarcados com Ptolemy
  • Data: 29/01/2014
  • Hora: 10:00
  • Mostrar Resumo
  • Atualmente, sistemas embarcados têm apresentado grande poder computacional e consequentemente, alta complexidade. É comum encontrar diferentes aplicações sendo executadas em sistemas embarcados. O projeto de sistemas embarcados demanda métodos e ferramentas que possibilitem a simulação e a verificação de um modo eficiente e prático. Este trabalho propõe o desenvolvimento e a avaliação de uma solução para a modelagem e simulação de sistemas embarcados heterogêneos de forma distribuída, através da integração do Ptolemy II com o High Level Architecture (HLA), em que o último é um middleware para simulação de eventos discretos distribuídos. O intuito dessa solução é criar um ambiente com alto desempenho que possibilite a execução em larga escala de modelos heterogêneos. Os resultados dos experimentos demonstraram que o uso da simulação não distribuída para algumas situações pode ser inviável, como também o uso de simulação distribuída com poucas máquinas, como, uma, duas ou três máquinas. Foi demonstrado também que o speedup de fator quatro foi obtido quando o modelo com quatro mil atores foi distribuído em oito diferentes computadores.
  • CLODOALDO BRASILINO LEITE NETO
  • Gerenciamento de Faltas em Computação em Nuvem: Um Mapeamento Sistemático de Literatura
  • Data: 22/01/2014
  • Hora: 15:00
  • Mostrar Resumo
  • Fundamentação: Com o grande crescimento da popularidade da computação em nuvem, observa-se que um desafio nessa área é; gerenciar falhas que possam ocorrer nas grandes infraestruturas implantadas para dar suporte à computação como serviço, que por serem extensas, possuem maior ocorrência de faltas, falhas e erros. Um trabalho que mapeie as soluções já criadas por pesquisadores de maneira simples e eficiente pode ajudar a visualizar oportunidades e saturações nesta área de pesquisa. Objetivos: Este trabalho visa mapear o conhecimento científico produzido sobre gerenciamento de faltas em computação em nuvem de forma a auxiliar na identificação de lacunas que possam representar novas oportunidades de pesquisa na área. Metodologia: Para este trabalho utiliza-se a metodologia de pesquisa baseada em evidências através do método de mapeamento sistemático de literatura, sendo a pesquisa construída em três etapas de seleção de estudos. Método: Conduzimos um mapeamento sistemático para coletar, filtrar e classificar trabalhos científicos na área. Foram encontrados 4535 artigos científicos nos grandes engenhos de busca que, depois de 3 etapas de filtragem, foram reduzidos a 166. Tais artigos foram classificados de acordo com a taxonomia definida neste trabalho. Resultados: Observa-se que IaaS é a área mais explorada nos estudos selecionados. As funções de gerenciamento de faltas mais exploradas são Tolerância e Remoção, e os atributos mais frequentes são Confiabilidade e Disponibilidade. A maioria dos trabalhos foram classificados, em relação ao tipo de pesquisa, como Proposta de Solução Conclusão: Este trabalho sumariza e classifica o esforço de pesquisa conduzido em Gerenciamento de Faltas em Computação em Nuvens, provendo um ponto de partida para pesquisas futuras nesta área.
2013
Descrição
  • MAINARA RODRIGUES NOBREGA
  • MERCI: UM SISTEMA INTERATIVO PARA CINEMA DIGITAL
  • Data: 16/12/2013
  • Hora: 14:00
  • Mostrar Resumo
  • O cinema tem evoluído continuamente desde a sua criação. Passou a ter som, cores, efeitos visuais, especiais, tridimensionais, multissensoriais, e agora interatividade. Tais mudanças têm proporcionado ao público experiências cada vez mais realistas durante a exibição de um filme. Estas podem ser obtidas através de tecnologias implantadas no audiovisual e, algumas vezes, na própria sala de projeção para captação de movimento da plateia ou da voz de espectadores, com a finalidade de proporcionar uma interação direta do espectador com o filme exibido. Novas versões de ferramentas tecnológicas surgem constantemente para auxiliar a cinematografia, no entanto, as técnicas que as antecederam não deixam de existir, todas têm se encaixado, agregando-se em um processo de evolução e reposicionamento técnico tornando possível o uso da interatividade. Apresentamos aqui um sistema intitulado MERCI, que proporciona a interação entre espectadores e o audiovisual através do envio de mensagens de texto realizado por meio de dispositivo móvel. O MERCI também fornece o suporte técnico à montagem não linear da narrativa audiovisual e ao gerenciamento de usuários. O diretor ou o montador da obra será o responsável pela manipulação destes aspectos. Alguns trabalhos foram comparados ao MERCI, entretanto este vem a oferecer um modelo de interatividade que se utiliza de uma nova forma para planejar e desenvolver a narrativa.

  • MAINARA RODRIGUES NOBREGA
  • MERCI: UM SISTEMA INTERATIVO PARA CINEMA DIGITAL
  • Data: 16/12/2013
  • Hora: 14:00
  • Mostrar Resumo
  • O cinema tem evoluído continuamente desde a sua criação. Passou a ter som, cores, efeitos visuais, especiais, tridimensionais, multissensoriais, e agora interatividade. Tais mudanças têm proporcionado ao público experiências cada vez mais realistas durante a exibição de um filme. Estas podem ser obtidas através de tecnologias implantadas no audiovisual e, algumas vezes, na própria sala de projeção para captação de movimento da plateia ou da voz de espectadores, com a finalidade de proporcionar uma interação direta do espectador com o filme exibido. Novas versões de ferramentas tecnológicas surgem constantemente para auxiliar a cinematografia, no entanto, as técnicas que as antecederam não deixam de existir, todas têm se encaixado, agregando-se em um processo de evolução e reposicionamento técnico tornando possível o uso da interatividade. Apresentamos aqui um sistema intitulado MERCI, que proporciona a interação entre espectadores e o audiovisual através do envio de mensagens de texto realizado por meio de dispositivo móvel. O MERCI também fornece o suporte técnico à montagem não linear da narrativa audiovisual e ao gerenciamento de usuários. O diretor ou o montador da obra será o responsável pela manipulação destes aspectos. Alguns trabalhos foram comparados ao MERCI, entretanto este vem a oferecer um modelo de interatividade que se utiliza de uma nova forma para planejar e desenvolver a narrativa.

  • NISSTON MORAES TAVARES DE MELO
  • ESTUDO E DESENVOLVIMENTO DE UMA PLATAFORMA ACESSÍVEL PELA WEB PARA ACOMPANHAMENTO DE CONTEÚDOS INSTRUCIONAIS
  • Data: 02/12/2013
  • Hora: 09:15
  • Mostrar Resumo
  • O uso crescente de ambientes virtuais de ensino/aprendizagem –
    AVA fez com que as Instituições de Ensino buscassem se beneficiar cada vez mais
    das possibilidades que esses ambientes oferecem. A estruturação, controle e
    acompanhamento do conteúdo instrucional que é ministrado em sala de aula, ou à
    distância, são um excelente exemplo e constituem o foco deste trabalho. O trabalho
    aqui apresentado foi desenvolvido em três fases: apresentação de uma proposta de
    estruturação de material instrucional em plano de curso, de forma a explicitar os
    conteúdos trabalhados em cada disciplina, suas relações com os objetivos
    pedagógicos a serem atingidos (competências e habilidades) e os recursos
    instrumentais e metodológicos que serão disponibilizadas na sua execução; estudo
    e proposta de uma arquitetura de sistema informatizado disponibilizado na WEB
    para atender, de forma segura, ágil e consistente aos requisitos levantados na
    primeira fase; implementação de uma aplicação em nível de prova de conceito
    instanciando a arquitetura proposta: o Sistema de Gestão e Controle de Conteúdo
    Instrucional (SGCCI). A aplicação desenvolvida foi utilizada na ocorrência de uma
    disciplina real e os resultados estão demonstrados e discutidos ao final deste
    trabalho.

  • STTIWE WASHINGTON FERREIRA DE SOUSA
  • MARKER: uma ferramenta para construção de aplicações interativas em T-Learning baseadas em técnicas de marcação em vídeo
  • Data: 13/11/2013
  • Hora: 10:00
  • Mostrar Resumo
  • A produção de conteúdo interativo pode ser realizada de diversas maneiras e utilizando variadas técnicas. Cada técnica procura sempre associar um problema com a melhor solução. No caso da interatividade na TV, deve-se levar em conta a satisfação do telespectador e a melhor adequação da técnica ao conteúdo interativo. Técnicas de marcação em vídeo vêm sendo amplamente estudadas buscando-se promover o conteúdo interativo seja mais facilmente acessível pelo telespectador. Este trabalho apresenta a ferramenta MARKER para construção de aplicações interativas utilizando técnicas de marcação em vídeo.

  • João Janduy Brasileiro Primo
  • FERRAMENTA GRÁFICA PARA MAPEAMENTO E POSICIONAMENTO DOS PADS
  • Data: 30/08/2013
  • Hora: 10:00
  • Mostrar Resumo
  • As ferramentas CAD (computer-aided design) são utilizadas para facilitar o projeto e desenho de circuitos integrados (CI). O Floorplaning é uma importante etapa na fase de design do layout no desenvolvimento de um CI. Nesta etapa, os macroblocos são posicionados no chip, além de serem decididas: a localização dos pads de entrada e saída, a localização dos pads de alimentação e as estratégias de distribuição da alimentação e do sinal de clock pelo núcleo. Comumente, é feito um wrapper em HDL que mapeia as portas de entrada e saída do projeto em instâncias de Pads, com seus diferentes tipos, definidos pelo desenvolvedor e um arquivo que indica a posição de cada Pad no circuito. Dessa maneira, tanto esse mapeamento quanto tal posicionamento, em geral, são feitos manualmente por meio de scripts, gerando uma enorme dificuldade para os desenvolvedores, pois para um CI com uma quantidade razoável de entradas e saídas torna-se extremamente susceptível de falhas humanas bem como a ocasionar grande dificuldade na localização dos erros.  Esses arquivos, em geral, são utilizados em todas as ferramentas CAD e também pelos fornecedores de Design Kits, além disso, as ferramentas possuem sintaxes diferentes para os arquivos. Este trabalho mostra uma ferramenta gráfica capaz de fornecer aos desenvolvedores uma maneira mais fácil e intuitiva de gerenciar tanto o mapeamento quanto o posicionamento dos pads, tornando o processo mais rápido e menos susceptível a falhas humanas. Para validar o trabalho, a ferramenta é testada em um projeto de um CI.

  • Jailton Maciel Alexandre Segundo
  • Seleção Automatizada de Componentes de Software Orientada por Métricas Estruturais e Informações de Reuso
  • Data: 30/08/2013
  • Hora: 09:00
  • Mostrar Resumo
  • A grande dificuldade de selecionar componentes de software ainda é um obstáculo para alcançar o sucesso do Desenvolvimento Baseado em Componentes (DBC). Com o crescimento do mercado de componentes, a tendência é sempre aumentar o número de opções para montagem de aplicações em diferentes contextos, tornando impraticável a seleção manual. Tratando de um problema com gigantesco espaço de busca e complexo, é requerida a automatização efetuada por técnicas de otimização. O trabalho proposto visa automatizar o processo de seleção de componentes utilizando técnicas da Engenharia de Software Baseada em Busca (ESBB), cuja técnica de otimização é orientada por métricas estruturais (i.e., conexões entre componentes de uma arquitetura de software) e informações de reuso (i.e., valores agregados ao próprio componente).

  • WAGNER SILVA COSTA
  • Abordagens heurísticas aplicadas ao Problema da Alocação Dinâmica de Espaços
  • Data: 12/08/2013
  • Hora: 16:00
  • Mostrar Resumo
  •  

    O Problema da Alocação Dinâmica de Espaços (PADE) foi recentemente formalizado
    na literatura. Foi inspirado na necessidade de otimização da distância
    percorrida por recursos requeridos para realização de atividades na ocorrência de
    desligamentos planejados em centrais de energia elétrica. Em geral, o problema
    apresenta aplicações potenciais em projetos nos quais movimentar um recurso é uma
    tarefa difícil ou cara, ou nos quais o congestionamento desses recursos é indesejável,
    como em construção de pontes e atividades de mineração.
    Este problema é considerado difícil para se resolver computacionalmente e, portanto,
    a diculdade em encontrar uma solução ótima para instâncias de elevadas
    dimensões justica o uso de métodos aproximados. Este trabalho propõe um estudo
    detalhado do PADE e das principais técnicas referenciadas na literatura para resolu-
    ção de instâncias do mesmo. Além disso, são propostos novos métodos de construção
    e busca local e algoritmos baseados nas metaheurísticas VNS, ILS, GRASP e Busca
    Tabu. Este estudo inclui uma proposta de abordagem por meio de algoritmos exatos
    a m de se conseguir soluções ótimas, viáveis ou bons limites inferiores através
    do CPLEX, e ainda, a combinação de dois ou mais métodos, em uma metodologia
    híbrida.

     

    O Problema da Alocação Dinâmica de Espaços (PADE) foi inspirado na necessidade de otimização da distância percorrida por recursos requeridos para realização de atividades na ocorrência de desligamentos planejados em centrais de energia elétrica. Em geral, o problema apresenta aplicações potenciais em projetos nos quais movimentar um recurso é uma tarefa difícil ou cara, ou nos quais o congestionamento desses recursos é indesejável,como em atividades de mineração.Este problema é  computacionalmente difícil de se resolvido, logo obter  uma solução ótima para instâncias de elevadas dimensões justica o uso de métodos aproximativos. Este trabalho propõe a utilização da metaheurística GRASP para a resolução do PADE.

  • LISIEUX MARIE MARINHO DOS SANTOS ANDRADE
  • Meta-heurística C-GGVNS Aplicada à Otimização Global Contínua
  • Data: 08/08/2013
  • Hora: 10:00
  • Mostrar Resumo
  • Este trabalho combina as meta-heurísticas C-GRASP e GVNS aplicadas à resolução de problemas de otimização contínua. O algoritmo utiliza uma versão contínua da meta-heurística GRASP para encontrar uma aproximação do mínimo global de funções não lineares, sem recorrer ao cálculo de derivadas. Com o mesmo intuito também foi desenvolvido um algoritmo baseado no GVNS contínuo. E finalmente foi contruída híbrida combinando as duas estratégias.

  • MOISES ROBERTO DE ARAUJO MOTA
  • Mapeamento Sistemático Sobre o Uso de Ontologias em Informática Médica
  • Data: 06/08/2013
  • Hora: 10:00
  • Mostrar Resumo
  • Representação do Conhecimento é a área da Inteligência Artificial que lida como o conhecimento pode ser representado simbolicamente e manipulado de forma automática por programas de raciocínio. Na Ciência da Computação, Ontologia é uma técnica de Representação do Conhecimento que descreve uma especificação formal sobre certo domínio, sendo um entendimento compartilhado sobre o mesmo e um modelo formal e executável por máquina. A Informática Médica surge como uma nova área de pesquisa que combina as áreas de Ciência da Computação, Tecnologias da Informação e Medicina, e vem usufruindo inúmeras oportunidades, mediante a utilização de ontologias, para avançar o estado da arte em vários aspectos. Neste contexto, esta pesquisa tem o objetivo de identificar, quantificar e analisar o conhecimento produzido na área de Ontologias e Informática Médica utilizando o método de pesquisa Mapeamento Sistemático. Deste modo, tem-se uma visão geral da evolução desta área de pesquisa, apresentando sua evolução até o momento da construção do mapeamento. Foram analisados estudos entre os anos de 1986 e 2012, dos quais foram extraídos tópicos de pesquisa como, as principais ontologias utilizadas em informática médica, seus benefícios, como estão sendo validados ou avaliados as pesquisas nesta área, entre outros.

    A principal contribuição deste trabalho é fornecer uma visão geral da área de pesquisa, e entender quais são os principais usos de Ontologias neste contexto, bem como os benefícios de sua aplicação nas diversas sub-áreas da Informática Médica. Adcionalmente, identificar as lacunas existentes nas pesquisas atuais revelando novas oportunidades de pesquisa.

  • DEMETRIUS LACET R DA SILVA
  • PASSEIO VIRTUAL NA TV DIGITAL: Apresentação interativa de lugares remotos utilizando a metodologia de imersão 360° do Google Street View
  • Data: 31/07/2013
  • Hora: 14:00
  • Mostrar Resumo
  • Este trabalho apresentou a relação entre a TV Digital - através de seus recursos de interatividade - e passeios virtuais, no que tange a apresentação de lugares remotos tendo como base a metodologia empregada nos passeios virtuais do Google Street View1. De forma resumida explanou a evolução de alguns temas necessários ao bom entendimento do projeto como: Passeio/Tour virtual, Google Street View, Turismo e TV Digital, traçando paralelos e pontos de encontro entre estes fenômenos sociais e culturais, além de apresentar uma reflexão sobre o uso da imagem conceitual em detrimento do seu uso como representação exclusivamente visual. Foi apresentado nesta pesquisa um formato possível de adaptação à TV Digital de visitação a lugares remotos através de Tours panorâmicos 360°. Como validação da hipótese levantada, um aplicativo foi desenvolvido para TV Digital contendo um passeio virtual a um museu à luz dos métodos utilizados para desenvolvimento de passeios virtuais para internet, a fim de demonstrar o seu uso com êxito nessa nova plataforma. Como complemento, foi desenvolvido um sistema WEB capaz de gerar essa aplicação no formato NCL, próprio para TV Digital.
  • LEANDRO CAVALCANTI DE ALMEIDA
  • Ferramenta Computacional para Identificação e Bloqueio de Ataques de Negação de Serviço em Aplicações Web
  • Data: 31/07/2013
  • Hora: 14:00
  • Mostrar Resumo
  • Tradicionalmente, os ataques de negação de serviço acontecem nas camadas de rede e transporte do modelo TCP/IP, utilizando protocolos como ICMP, UDP e TCP. Uma característica comum destes ataques é que eles afetam diretamente a infraestrutura de hardware do sistema alvo, fazendo com que o mesmo pare de responder a solicitações legítimas. Uma versão mais sofisticada de um ataque de negação de serviço, agora na camada de aplicação tem sido utilizada em muitos ataques deste tipo. Nestes casos usa-se o protocolo HTTP, por meio de seus métodos GET e POST. É possível observar que o atacante utiliza os métodos GET e POST de uma conexão HTTP para esgotar os recursos do serviço Web disponibilizado pelo servidor, ou seja, a infraestrutura de hardware do sistema alvo permanece quase que intacta. Este trabalho dissertativo tem como proposta de pesquisa apresentar um modelo de detecção e bloqueio em tempo real de ataques DDoS GET HTTP contra servidores Web, utilizando um sistema de detecção baseado em assinaturas de ataques. Experimentos comprovaram a eficácia do modelo proposto, no qual foi possível manter um serviço Web 100% disponível e com um tempo de resposta aceitável mesmo durante a ocorrência de um ataque de negação de serviço.

  • DANILO RANGEL ARRUDA LEITE
  • GSPROJECTS - UM AMBIENTE PARA SIMULAÇÃO DA GESTÃO DE PROJETOS DE SOFTWARE
  • Data: 31/07/2013
  • Hora: 08:00
  • Mostrar Resumo
  • A aplicação deficiente de técnicas de gerenciamento em projetos de software muitas vezes acarreta no fracasso e possível cancelamento de um projeto. Uma das possíveis causas é a falta de um melhor entendimento das suas práticas essenciais.A utilização de simuladores em treinamento pode ter um alto poder de motivação podendo apresentar benefícios se comparado a outras formas tradicionais de aprendizado. Este trabalho tem por objetivo a elaboração e desenvolvimento de um jogo educacional para o ensino de gerenciamento de projetos de software em cursos de graduação na área de computação.Como validação da proposta, o jogo foi submetido a um grupo de alunos de graduação no curso de ciência da computação, tendo cumprido com a expectativa inicial de auxiliar no ensino-aprendizado da disciplina.

  • ROMULO COSTA DE MENEZES JUNIOR
  • Avaliação das Funcionalidades de um Sistema Baseado em Jogos para Gerenciamento e Acompanhamento Remoto de Terapia para Reabilitação Motora
  • Data: 30/07/2013
  • Hora: 17:00
  • Mostrar Resumo
  • O tratamento fisioterapêutico pode se beneficiar da utilização de sistemas de informação baseados em jogos para estimular a prática dos exercícios de reabilitação e acompanhar a terapia. A popularização de dispositivos que capturam o movimento, como o Kinect, fomentou o desenvolvimento de tais aplicações para interagir com pacientes em sistemas de reabilitação física, permitindo que possam ser utilizados remotamente. Para que tais aplicações possam contribuir com o tratamento fisioterapêutico na clínica ou no domicílio do paciente, de forma remota, estas devem apresentar características motivacionais para auxiliar o paciente na execução correta dos movimentos, ser adaptável às necessidades dos pacientes e auxiliar o diagnóstico durante a evolução do tratamento. Desta forma, a partir de investigação e análise comparativa de trabalhos publicados na literatura, este trabalho buscou especificar e desenvolver os elementos mais importantes que um sistema para tratamento fisioterapêutico deve conter, em busca de um completo sistema baseado em jogos. Tal investigação resultou no desenvolvimento de um protótipo contendo todas as características desejáveis que foram identificadas e que poderá ser utilizada por profissionais de fisioterapia para auxiliar no tratamento fisioterapêutico.  As funcionalidades desenvolvidas foram experimentadas e avaliadas por profissionais de fisioterapia, a partir de questionários, para descrever a experiência de utilização e possíveis necessidades adicionais. A experimentação e os resultados do questionário revelaram que o sistema foi bem aceito entre os terapeutas e que já poderia ser utilizado no tratamento de diversas patologias. Entretanto, ainda é necessário desenvolver mais elementos lúdicos nos jogos, para melhorar a motivação; realizar pequenas correções na mecânica de detecção de movimentos e gerar relatórios sobre a evolução para um tratamento.

  • THIAGO HENRIQUE JACOB OLIVEIRA SOUSA
  • Impactos na aprendizagem da utilização de sistemas de resposta à audiência
  • Data: 30/07/2013
  • Hora: 10:00
  • Mostrar Resumo
  • Sistemas de resposta à audiência já vêm sendo estudados em todo o mundo como formas de motivar e avaliar o corpo discente em sala de aula através do uso da tecnologia.  Estes sistemas tem o potencial de ser, para os educadores, uma ferramenta capaz de aperfeiçoar o processo de ensino e aprendizagem presencial.  Este trabalho discute a avaliação dos impactos na aprendizagem da utilização de um sistema de resposta à audiência no contexto de uma instituição de ensino superior no estado da Paraíba. A discussão abrangerá toda a fundamentação teórica, o desenvolvimento do sistema de resposta à audiência utilizado neste estudo desde os requisitos até a codificação e o estudo de caso realizado para avaliar os impactos da utilização deste, sendo os resultados coletados, analisados e as conclusões demonstradas. 

  • TIAGO DAVI NEVES DE SOUZA
  • Um Interpretador baseado na JVM para auxílio no ensino de Algoritmos e Estruturas de Dados como parte da ferramenta IGED
  • Data: 29/07/2013
  • Hora: 10:00
  • Mostrar Resumo
  • Em disciplinas de Programação, Estruturas de Dados e Algoritmos de cursos de Computação, ferramentas que permitam que os alunos possam visualizar as alterações nas estruturas de dados ao longo da execução de um programa são de grande utilidade, já que elas auxiliam que os aprendizes entendam como os algoritmos operam sobre as estruturas de dados. Diversas ferramentas foram propostas desde [Brown e Sedgewick 1984], mas em muitas delas, as visualizações gráficas das estruturas através de animações só podem ser feitas através de programação pelos usuários. Assim, nesse trabalho é proposto um interpretador que gere as animações de forma automática a partir da execução do código em linguagem de montagem de bytecodes Java traduzidos a partir de um código de alto nível informado pelo usuário. Esse interpretador possui uma estrutura baseada na da JVM e será componente da ferramenta IGED [Netto et al. 2011]. Com isso, a arquitetura desse interpretador e seus requisitos para a ferramenta IGED foram definidos. Além disso, uma análise sobre uma possível utilização da Java HotSpot VM da Oracle como Interpretador do IGED está sendo feita, para que se possa definir a melhor abordagem e guiar trabalhos futuros. 

  • Thales Pordeus Ferreira
  • Uma Extensão da Visão Estrutural do NCL Composer para Integração de Código Imperativo
  • Data: 24/07/2013
  • Hora: 10:00
  • Mostrar Resumo
  • Os requisitos das aplicações NCL, como a necessidade de conteúdo
    dinâmico resultado de processamento, tornam o seu desenvolvimento um
    desafio. Essas aplicações são definidas com uma parte declarativa e,
    adicionalmente, uma parte imperativa que relaciona os objetos de mídia
    com algum processamento de operações complexas (por exemplo, uma
    lógica descrita num script programado na linguagem Lua). Dentro do
    desenvolvimento de aplicações NCL, uma opção adotada pelos autores de
    documento é utilizar a visão estrutural do NCL Composer para
    relacionar de forma visual os objetos de mídia com os objetos de mídia
    imperativos. Atualmente, apesar do NCL Composer suportar o
    relacionamento com os objetos de mídia imperativos, é possível
    identificar uma ineficiência no tocante à integração de forma rápida e
    simples do código imperativo em uma aplicação NCL. O objetivo deste
    trabalho é propor uma extensão para a visão estrutural que permita
    melhor integrar objetos de mídia e código imperativo, de forma a
    diminuir o tempo de uso do conteúdo presente nas mídias imperativas. O
    trabalho traz também uma avaliação do impacto na produtividade do
    desenvolvimento de aplicações compatíveis com a especificação
    Ginga-NCL.

  • AMANDA DRIELLY DE SOUZA PIRES
  • Uma Abordagem para Identificação Semântica de Domínios de Aplicação em Ambientes de Convergência Digital
  • Data: 23/07/2013
  • Hora: 10:00
  • Mostrar Resumo
  • O surgimento da Televisão Digital Interativa proporciona, além de ganho de qualidade na transmissão, a adição de novos recursos e serviços disponíveis ao usuário. Com o advento da convergência digital entre as plataformas de TV e Web, novas propostas de organização semântica de conteúdo foram desenvolvidas. Além disso, foi possível introduzir conceitos da Web Semântica e de representação do conhecimento que permitem descrever semanticamente os metadados de conteúdo através de ontologias. Esse trabalho propõe uma abordagem para identificação de domínios de aplicação no ambiente de convergência digital baseada em conceitos da Web Semântica e nas análises de similaridade léxica e semântica. Um componente, integrado ao sistema Knowledge TV, foi implementado para validar a abordagem.

  • DANYLLO WAGNER ALBUQUERQUE
  • UMA ABORDAGEM PARA ANÁLISE DA DISCUSSÃO POLÍTICA UTILIZANDO DADOS DE USUÁRIOS DO TWITTER
  • Data: 19/07/2013
  • Hora: 10:00
  • Mostrar Resumo
  • As Redes sociais online têm se tornado extremamente populares, levando ao surgimento e à crescente popularização de uma nova onda de aplicações baseadas na Web. A presença deste tipo de mídia é importante uma vez que fornecem um tipo especial de debate que as formas convencionais não conseguem trazer. A proximidade que uma ferramenta como o twitter oferece aos usuários tem o poder de humanizar a figura de um candidato a partir da comunicação direta entre as partes, o que leva uma nova forma de comunicação entre os principais atores de uma eleição. Neste sentido o presente trabalho tem como objetivo mostrar como a obtenção de dados de uma rede social e sua posterior análise pode servir de meio alternativo em relação as pesquisas de intenção de votos para prever com grau de

    confiabilidade o resultado de um pleito eleitoral.

  • SAMYR SANTOS DELFINO
  • Gestão da comunicação e informação em equipes de desenvolvimento scrum.
  • Data: 09/07/2013
  • Hora: 10:00
  • Mostrar Resumo
  • Em processos de desenvolvimento de software, a adoção de metodologias ágeis tem tido crescimento significativo. Percebe-se a dificuldade em realizar uma gestão da informação/comunicação em um ambiente ágil. Objetiva-se com este trabalho propor um modelo de gestão da informação/comunicação para equipes ágeis de desenvolvimento que utilizam a Framework Scrum, respeitando as necessidades e particularidades existentes neste Framework.  A metodologia adotada para este trabalho será subdividida em três fases distintas que consistem no estudo teórico, pesquisa de campo e criação de uma proposta de modelo de gestão de informação/comunicação em equipes Scrum.

  • WOLGRAND CARDOSO BRAGA JUNIOR
  • Estratégia para Armazenamento e Recuperação de Experiência Multimídia em Telemedicina: Um Estudo de Caso do Projeto Ambiente de Vídeo Colaboração em Saúde (GTAVCS)
  • Data: 07/05/2013
  • Hora: 16:00
  • Mostrar Resumo
  • Aplicações baseadas em vídeo estão cada vez mais populares. Elas estão disseminadas nos mais diversos campos: Telemedicina, espetáculos artístico-tecnológicos, eventos tecno-científicos, entretenimento, publicidade, dentre outros. Para algumas dessas aplicações a incorporação de ferramentas que permitam a gravação de fluxos de dados audiovisuais transmitidos em tempo real é de grande valia. O presente trabalho aborda o que chamamos de experiência multimídia que designa a recuperação da experiência de uso de um sistema voltado para Telemedicina que permite o controle de vários fluxos de dados simultâneos. Neste trabalho foi criada uma estratégia para gravação e recuperação dessa experiência.

  • BRUNO LUNA RIBEIRO
  • Uma Abordagem para Alocação de Equipes em Projetos de Desenvolvimento Distribuído de Software com Base em Atributos Não-Técnicos
  • Data: 05/04/2013
  • Hora: 15:00
  • Mostrar Resumo
  • Com a crescente adoção de projetos e processos de Desenvolvimento Distribuído de Software (DDS), muitas organizações que praticavam o desenvolvimento tradicional, co-localizado, passaram a atuar no mercado global, dividindo suas unidades colaborativas em vários pontos geográficos do globo. Além da aproximação com o mercado internacional, a utilização de DDS possibilita uma redução do time-to-market, melhor qualidade dos produtos gerados, redução de custos e maior facilidade para encontrar mão-de-obra qualificada. Entretanto, a distância entre as equipes envolvidas no DDS gera uma série de problemas relacionados a comunicação, não enfrentados no desenvolvimento co-localizado. Segundo a NBR ISO 10006, o fator humano é chave para o sucesso dos projetos de software, já que é uma atividade genuinamente humana. No desenvolvimento tradicional, empresas utilizam processos de alocação de recursos humanos para encontrar os profissionais adequados para realizar uma determinada atividade. Porém, a distância geográfica, como também os fatores culturais e temporais existentes no DDS, não são enquadrados nesses processos. Neste contexto, a fim de reduzir os problemas de comunicação durante a fase de implementação, o presente trabalho apresenta uma abordagem para alocação de equipes em projetos de DDS, tendo como objetivo mitigar os efeitos problemáticos gerados pela necessidade de comunicação entre as equipes geograficamente dispersas. Considerando que o acoplamento existente entre os componentes de software interfere na comunicação requerida para desenvolvê-los, a abordagem proposta leva em consideração características não-técnicas das equipes, como atributos temporais, culturais e de afinidade, para descobrir o grau de proximidade das equipes, comparando-as com o nível de acoplamento entre os componentes, de modo a identificar quais equipes possuem melhores condições de implementar os componentes de software com grau de comunicação satisfatório com as demais equipes. Deve-se destacar que as equipes candidatas à alocação com base em atributos não-técnicos são equipes tecnicamente habilitadas para a implementação dos componentes. Pela complexidade do problema de alocação ser alta, é utilizado um algoritmo genético, com função de avaliação baseada nos atributos não-técnicos para a alocação das equipes, tornando o problema tratável computacionalmente em tempo hábil.

  • GUTENBERG PESSOA BOTELHO NETO
  • Aprendizado por Reforço Aplicado a Situações de Combate em Jogos Eletrônicos de Estratégia em Tempo Real
  • Data: 28/03/2013
  • Hora: 10:00
  • Mostrar Resumo
  • Jogos eletrônicos e, em especial, jogos de estratégia em tempo real (RTS), são cada vez mais vistos como campos viáveis e importantes para pesquisas de inteligência artificial por possuírem características interessantes para a área, como a presença de ambientes complexos, muitas vezes dinâmicos e com múltiplos agentes. Nos jogos RTS comerciais, a IA utilizada pelo computador é geralmente desenvolvida a partir de técnicas ad hoc simples e estáticas, com a necessidade de definição manual de comportamentos e a incapacidade de adaptação às situações encontradas. Esta abordagem, além de demorada e propícia a erros, faz com que o jogo torne-se relativamente previsível após algum tempo, permitindo ao jogador eventualmente descobrir a estratégia utilizada pelo computador e desenvolver uma forma ótima de enfrentá-lo. Uma maneira de tentar combater esta previsibilidade é com a utilização de técnicas de aprendizagem de máquina, mais especificamente do aprendizado por reforço, para permitir ao computador avaliar as situações ocorridas durante as partidas, aprendendo com estas situações e aprimorando seu conhecimento ao longo do tempo, sendo capaz de escolher de maneira autônoma e dinâmica a melhor ação quando necessário. Este trabalho propõe uma modelagem para a utilização de SARSA, uma técnica do aprendizado por reforço, aplicada a situações de combate em jogos RTS. O domínio do combate é um dos pontos fundamentais na busca da vitória em um jogo RTS e o objetivo é fazer com que o computador possa se portar de maneira mais adequada nesta área, tornando-se um adversário mais desafiador para qualquer jogador.

  • JOAO FILHO MATOS FIGUEIREDO
  • SocialRAD: Um modelo distribuído para telerradiologia assíncrona de forma segura e cooperativa.
  • Data: 25/03/2013
  • Hora: 14:00
  • Mostrar Resumo
  • Serviços de telerradiologia têm se tornado populares, principalmente por seu potencial de redução de custos, ao tempo em que elevam a agilidade e a qualidade na prestação dos serviços de saúde em áreas geográficas de difícil acesso. Contudo, este potencial traz desafios elevados: o grande volume de dados, característico dos exames de imagens, e os requisitos de segurança que visam garantir a sua confidencialidade e integridade. Além disso, questões éticas envolvem o modelo dominante no mercado, em que este serviço é prestado por empresas terceirizadas, e não diretamente pelos profissionais radiologistas. Assim, este trabalho propõe um modelo distribuído e cooperativo, através do qual os profissionais de saúde podem interagir diretamente com os hospitais que prestam os cuidados ao paciente. Focou-se, ainda, em suprir as principais deficiências presentes em soluções consagradas, mais precisamente no que diz respeito aos requisitos de segurança, de comunicação assíncrona, ponto-a-ponto e da viabilidade tecnológica e financeira. Uma abordagem investigativa sobre os mecanismos utilizados nas principais soluções foi realizada, de maneira a se obter uma base sobre a qual se firmou a solução final. O uso do modelo de Cloud Computing, aliado a uma arquitetura RESTful WebServices, proveram a base inicial na qual operam, de forma integrada, tecnologias, paradigmas e padrões, a exemplo de modelos de interconexão Peer-to-Peer, Redes Virtuais Privadas (VPNs), Traversal Address Network Translation (Traversal NAT), Dynamic DNS, protocolo para Comunicação de Imagens Digitais em Medicina (DICOM), boas práticas de criptografia, além de outros padrões de segurança e de interoperabilidade. Um protótipo foi desenvolvido e está em fase de testes e avaliação por médicos radiologistas situados em cidades no interior dos estados do Ceará, Pernambuco e Paraíba, e segue evoluindo de forma incremental. O protótipo tem permitido aos médicos radiologistas emitirem laudos, diariamente, de exames de tomografia computadorizada, os quais, outrora, levavam cerca de 7 dias até que um especialista pudesse deslocar-se até a cidade para produzi-lo.

  • Elenilson Vieira da Silva Filho
  • Uma Estratégia de Refletores Multimídia para Criptografia e Codificação em Tempo Real
  • Data: 22/03/2013
  • Hora: 15:00
  • Mostrar Resumo
  • A necessidade de compartilhar os dados presentes cada vez mais nos sistemas de informação leva ao desenvolvimento de soluções mais complexas e criativas para os impedimentos encontrados devido às limitações físicas da tecnologia atual. Alguns dos principais problemas de um sistema distribuído é a grande quantidade de informação por intervalo de tempo que a tecnologia de rede consegue transmitir e a confidencialidade dos dados que estão sendo passados. Há ainda mais restrições se for considerada a sub área de transmissão de mídias, já que a experiência do usuário pode ser prejudicada drasticamente por uma transmissão de dados com erros ou atrasos. Neste contexto um esquema de refletores de vídeo que permite a distribuição de fluxos de mídia 

  • PRISCILLA KELLY MACHADO VIEIRA
  • Recomendação Semântica de Conteúdo em Ambientes de Convergência Digital
  • Data: 18/03/2013
  • Hora: 10:00
  • Mostrar Resumo
  • Com o advento da TV Digital interativa (TVDi),  nota-se o aumento de interatividade no processo de comunicação além do incremento das produções audiovisuais, elevando o número de canais e recursos disponíveis para o usuário. Esta realidade faz da tarefa de encontrar o conteúdo desejado uma ação onerosa e possivelmente ineficaz. A incorporação de sistemas de recomendação no ambiente TVDi emerge como uma possível solução para este problema. Este trabalho tem como objetivo propor uma abordagem híbrida para recomendação de conteúdo em TVDi, baseada em técnicas de mineração de dados, integradas a conceitos da Web Semântica, permitindo a estruturação e padronização dos dados e consequente possibilidade do compartilhamento de informações, provendo semântica  e  raciocínio automático. Para o serviço proposto é considerado o Sistema Brasileiro de TV Digital e o middleware Ginga.

  • BRIAN CARLOS REZENDE V DE PAIVA
  • Riumor: uma rede social multiplataforma para a TV Digital Interativa
  • Orientador : ED PORTO BEZERRA
  • Data: 28/02/2013
  • Hora: 12:30
  • Mostrar Resumo
  • O conceito de Social TV vem sendo modelado, nos últimos anos, para tentar alterar o modo como as pessoas interagem e se socializam no contexto de assistir TV. Diversas Social TV (ST) foram criadas com diferentes recursos visando proporcionar uma melhor experiência aos telespectadores. Porém essas ST limitaram sua abrangência de interação apenas aos indivíduos entre si e entre alguns conteúdos. No contexto da TV Digital Aberta brasileira, ainda não há uma Social TV criada especificamente para a interação entre usuários de TV. Esse trabalho vem propor a criação de uma Social TV híbrida adequada à TV Digital Aberta Brasileira (TVDAB) que expanda o conceito de interação entre indivíduos, para que estes possam interagir com todo conteúdo da TV, de forma ativa e/ou passiva, utilizando como base o middleware GINGA.

  • DIENERT DE ALENCAR VIEIRA
  • Coordenação de Infraestruturas Computacionais Distribuídas em Larga Escala Baseadas em Redes de Broadcast de Sistemas de Televisão Digital
  • Data: 28/02/2013
  • Hora: 10:00
  • Mostrar Resumo
  • A Infraestrutura Computacional Distribuída sob Demanda (On-Demand Distributed Computing Infrastructure – OddCI) é uma arquitetura que utiliza como base uma rede  de comunicação em broadcast para compor um ambiente em larga escala de processadores visando à computação de
    alta vazão (High Throughput Computing – HTC). Um exemplo de rede de broadcast é o sistema de Televisão Digital cujo sinal é transmitido para milhares de receptores simultaneamente. Estes receptores são máquinas de  significativo poder de processamento que estão em crescente aquisição pela população brasileira e podem ser utilizados como unidades de  processamento para atingir alta vazão. Entretanto, esses potenciais  processadores não são completamente dedicados e são cedidos voluntariamente, o que os tornam recursos altamente voláteis. Em outras palavras, não há garantias sobre o tempo que permanecem dedicados à uma tarefa. Assim, se faz necessária a utilização de algoritmos compensatórios que tratem essa volatilidade e otimizando a
    disponibilidade coletiva dos dispositivos. Este trabalho  apresenta heurísticas de coordenação da arquitetura OddCI, que buscam convidar ou excluir dispositivos sob a cobertura da comunicação através de mensagens coletivas com o objetivo de coordenar a quantidade alocada de processadores, com vistas à atender acordos de nível de serviço (Service-Level Agreement – SLA) estabelecidos. As heurísticas de coordenação são validadas por meio de simulação.

  • FRANK CÉSAR LOPES VERAS
  • Modelagem e Simulação do Deslocamento de Pessoas para Estimativa de Formação de Grupos
  • Data: 25/02/2013
  • Hora: 10:00
  • Mostrar Resumo
  • O uso das Redes de Sensores sem Fio (RSSF) tem sido difundido em diversas áreas de pesquisa e aplicação. A proposta deste trabalho é um estudo sobre como utilizar sensores para monitorar pessoas em movimento, tendo uma RSSF como meio no qual a pesquisa deverá ocorrer, porém com o intuito de prever a formação de grupos em determinadas regiões. Para a realização deste trabalho é que a rede foi projetada e testada no simulador Ptolemy II, usando o protocolo ZigBee de comunicação, onde os sensores foram posicionados de acordo com um sistema de coordenadas cartesianas. A RSSF deverá detectar as pessoas e identificar características comuns de movimento, como velocidade, direção e tipo de movimento, através de parâmetros configurados no simulador. As pessoas envolvidas nos grupos serão identificadas por etiquetas RFID (Radio Frequency Identification) presas ao seu corpo. O movimento de multidão teve sua formalização matemática baseada em parâmetros como posição do grupo, quantidade de pessoas por grupo e duração do movimento que definem as características necessárias para a simulação desse cenário. A partir da formalização do movimento da multidão, vários dados são coletados em intervalos de tempo previamente determinados e interpretados por um algoritmo que, através da troca de mensagens entre sensores, estima a formação de multidão na região definida como alvo. Neste trabalho, foram inseridos tabelas e gráficos que refletem o número real de pessoas que se deslocam em direção ao alvo real. Esses dados são gerados a partir da intensa troca de mensagens entre os sensores, obedecendo alguns parâmetros estabelecidos e que favorecem o algoritmo que estima a formação de multidão no alvo, em determinado tempo. A acurácia da previsão foi medida pelo desvio padrão encontrado, de acordo com o grau de antecipação aplicado. Assim, a detecção de pessoas pelos sensores é interpretada de acordo com a possibilidade de formação de grupos, tendo seus valores disseminados pela rede. A proposta é que essa ação facilite o processo de tomada de decisão e, consequentemente, ajude na caracterização da formação de multidões.
  • RHARON MAIA GUEDES
  • PLANE – UM MÓDULO DE NEGOCIAÇÃO SEMIAUTOMÁTICA PARA MÚLTIPLOS PARTICIPANTES E MÚLTIPLOS ATRIBUTOS
  • Data: 22/02/2013
  • Hora: 09:00
  • Mostrar Resumo
  • Com o avanço tecnológico surgiram novas formas de negociação, podemos citar a eletrônica, conhecida como e-negotiation, que se caracteriza por processos conduzidos total ou parcial pelo uso da mídia eletrônica. Em meio a esse debate da construção de novas formas de negociação de bens e valores, estão as redes de televisão que necessitam firmar acordos de maneira mais prática, rápida e eficaz, para que as informações não percam seu valor. Neste contexto, foi criado o módulo PLANE (Plataforma de Assistência a Negociação), que tem como objetivo a construção de um módulo que permita a negociação de conteúdos audiovisuais através de um algoritmo semiautomatizado. As contraofertas serão geradas através da variação e análise dos atributos do conteúdo.  Para isso, serão aplicadas funções multiatributos e uma função de deslocamento. A estratégia de negociação utilizada está inserida em uma arquitetura para conectar diversas redes de televisão, que forma uma inter-rede para o compartilhamento do conteúdo. Espera-se, ao final, que os negociadores possam fechar um contrato que conterá os valores dos atributos acordados, assim como o valor a ser pago pelo conteúdo.

  • RENATA MENDONCA SARAIVA
  • Uma Abordagem para o Uso de Raciocínio Baseado em Casos no Suporte ao Diagnóstico e Tratamento Adaptativo de Pacientes com Câncer Gastrointestinal
  • Data: 19/02/2013
  • Hora: 09:00
  • Mostrar Resumo
  • O tratamento de pacientes com câncer é um desafio para os hospitais e centros de saúde. O primeiro problema é classificar ou identificar o tipo específico de câncer. Em seguida, os médicos devem determinar um tratamento adequado para tal doença. Existem bancos de dados mundiais que registram informações sobre câncer, de modo que os médicos possam tentar achar uma classificação para a doença de acordo com os sintomas apresentados pelo paciente. Contudo eles não oferecem um bom suporte para a procura das doenças e, principalmente, para a identificação do tratamento. Este artigo propõe a utilização das tecnologias de raciocínio baseado em casos e raciocínio baseado em regras como solução para suportar estas duas atividades via representações de casos de pacientes e adaptações destes casos para a definição de diagnósticos mais especializados, de acordo com as peculiaridades de cada paciente. Nosso foco é sobre o câncer gastrointestinal, mas as idéias podem ser estendidas para outros domínios de câncer.

  • ROBERTO FELICIO DE OLIVEIRA
  • Análise Quantitativa das Relações entre Usuários no Twitter
  • Data: 19/02/2013
  • Hora: 09:00
  • Mostrar Resumo
  • Sob o aspecto de seres sociais, os seres humanos procuram incessantemente interagir uns com os outros, nas mais variadas ocasiões. Realidade esta, expandida ao mundo virtual, ao qual permite uma comunicação sem fronteiras através da Internet entre as pessoas de qualquer parte do mundo. Por conseguinte, uma rede social virtual, nada mais é do que um reflexo da necessidade de comunicação, aplicado às redes Web. Não obstante é cediço que a concepção de redes sociais, bem como das métricas de análise de redes, tem despertado nas últimas décadas além do interesse uma curiosidade notável dos pesquisadores de diversas áreas, tal como das ciências sociais. Desta maneira, verifica-se um aumento significativo seguido de uma vasta oportunidade de pesquisas nesta área. Portanto, esse trabalho visa investigar à utilização de programas de monitoramento de Redes Sociais aliados a técnicas avançadas de Análise de Redes Sociais que possibilitem analisar comparativamente o perfil relacionamento de usuários do Twitterfrente ao seu perfil nos sistemas de análise de crédito.

  • OTACILIO DE ARAUJO RAMOS NETO
  • Estudo e Implementação de IP-Cores para Criptografia Simétrica Baseado no Advanced Encryption Standard (AES)
  • Data: 31/01/2013
  • Hora: 10:00
  • Mostrar Resumo
  • Este trabalho consistiu em realizar o projeto de um IP-core digital para realização dos procedimentos de criptografia do AES,  partindo do nível do pseudocódigo dos algoritmos até o nível de um núcleo (core) de circuito integrado digital. Foram estudadas soluções publicadas na literatura recente e foram identificados módulos e operações passíveis de serem replicadas/reusadas. Uma microarquitetura para o AES completo foi implementada hierarquicamente até o nível de núcleo com standard cells posicionado e roteado, contemplando ainda 3 opções de implementação para o bloco reconhecidamente o mais complexo: o SBox. Resultados de desempenho e área foram comparados.

2012
Descrição
  • ANA CLAUDIA COSTA DA SILVA
  • Uma Abordagem Orientada a Features para Representação e Gerenciamento do Patrimônio Cultural Imaterial: Um Estudo de Caso Baseado no PAMIN
  • Data: 18/12/2012
  • Hora: 14:00
  • Mostrar Resumo
  • O patrimônio cultural nas últimas décadas vem ampliando seu conceito e as mais diversas áreas de conhecimento vêm sendo reestruturadas para garantir a proteção do patrimônio em sua totalidade. A Antropologia, o Direito, a História e a Sociologia são apenas alguns exemplos dessas áreas que vêm se moldando a ampliação do conceito de Patrimônio Cultural. A Área de Ciências da Computação, embora seja uma vertente que pode contribuir de uma maneira mais completa para a proteção do bem imaterial, ainda não possui muitos instrumentos e meios que moldem ou ditem como garantir o legado cultural através de suas variadas ferramentas. O presente trabalho está atento à necessidade de preservação e proteção da cultura e visa contribuir com esta finalidade através de uma abordagem orientada a features, explicando como e porque conservar os variados aspectos do bem imaterial em meio digital. A avaliação da abordagem proposta neste trabalho foi feita através do desenvolvimento do PAMIN. Este espaço de experimentação possibilitou a validação da representação e gerenciamento do Patrimônio Cultural Imaterial através de sua interface, de suas funcionalidades e seus variados aspectos de representação em meio digital. 

  • DANIEL GONCALVES RAMOS
  • METAHEURÍSTICAS GRASP E ILS APLICADAS AO PROBLEMA DA VARIABILIDADE DO TEMPO DE DOWNLOAD EM AMBIENTES DE TV DIGITAL
  • Data: 31/08/2012
  • Hora: 14:00
  • Mostrar Resumo
  • A transmissão de aplicativos interativos no ambiente de TV Digital é feita através do padrão Carrossel DSM-CC. Esse padrão permite que os dados sejam enviados de forma cíclica, a fim de que o usuário possa recebê-los por completo independente do momento que iniciou seu download. A forma com que os dados estarão disponíveis no carrossel tem um impacto significativo no tempo de espera do usuário, o que dá origem a uma variante do Response Time Variability Problem, denominado neste trabalho de Problema da Variabilidade do Tempo de Download (PVTD).  Este trabalho propõe um modelo de negócio para definir quais aplicações terão prioridade no carrossel, além de propor um novo modelo matemático que visa minimizar o atraso no download dessas aplicações. Este ainda descreve a implementação das metaheurísticas GRASP e ILS aplicadas ao PVTD, bem como compara os resultados com um trabalho da literatura.

  • DANIEL SOARES E MARQUES
  • Sistema Misto Reconfigurável Aplicado à Interface PCI para Otimização do Algoritmo Non-Local Means
  • Data: 31/08/2012
  • Hora: 14:00
  • Mostrar Resumo
  • A área de processamento de imagens digitais está evoluindo continuamente e, embora as áreas de aplicações sejam diversas, os problemas encontrados comumente convergem para os métodos capazes de melhorar a informação visual para a análise e interpretação. Uma das principais limitações em questão de precisão de imagens é o ruído, que é definido como uma perturbação na imagem.

                O método Non-Local Means (NLM) destaca-se como o estado da arte de filtragem de ruído. Apesar de possuir resultados de filtragem que sobressaem em relação a outros métodos comparados, sua complexidade computacional é um empecilho para torná-lo prático em aplicações computacionais de uso geral.

                    Atualmente há na literatura científica diversos trabalhos relacionados à otimização do NLM, porém muitos sem ganhos consideráveis para facilitar o uso, o estudo e o aperfeiçoamento do método.

                O presente trabalho apresenta a implementação de um sistema computacional, desenvolvido com partes executadas em software e em hardware aplicado à PCI, visando a otimização do algoritmo NLM através de técnicas de aceleração em hardware, permitindo uma eficiência maior do que normalmente é fornecida por processadores de uso geral.

                O uso da computação reconfigurável auxiliou no desenvolvimento do sistema em hardware, proporcionando a modificação do circuito descrito no ambiente de sua utilização, acelerando a implementação do projeto. Utilizando um kit PCI de prototipação FPGA, para efetuar o cálculo dedicado da Distância Euclidiana Quadrática Ponderada, os resultados obtidos nos testes exibem um ganho de tempo até 3.5 vezes maior que as abordagens de otimização comparadas, mantendo também a qualidade visual da filtragem estabilizada.

  • MARCELLE BATISTA MARTINS DOS SANTOS
  • MDM-KTV: Um Framework Conceitual de Multi-Modelos para a organização dos dados operacionais, analíticos, semânticos e baseados no Linked Data na TVDI
  • Data: 31/08/2012
  • Hora: 14:00
  • Mostrar Resumo
  • Com a difusão e o crescimento da televisão digital nos lares de todo o mundo, o usuário usufrui de imagem e som de melhor qualidade, além de ter acesso a diversos tipos de conteúdos inseridos em uma nova mídia mais completa , que é a TV Digital Interativa (TVDI), onde tais conteúdos podem ser acessados através de vários dispositivos e meios distintos. Com toda essa complexidade, surgem variados cenários na TVDI, que vão desde a um simples aplicativo interativo operacional a aplicativos que avaliam o comportamento do usuário, cuja finalidade é oferecer resultados mais precisos e focados no perfil do usuário. A plataforma Knowledge TV (KTV) analisada neste trabalho tem como principal objetivo a inclusão de uma camada semântica que provê aplicações inseridas em um contexto recente que é a Web Semântica, propondo novos desafios na busca de um ambiente de convergência digital. Assim, a proposta desta dissertação é o desenvolvimento de um Framework Conceitual de multi-modelos de dados para a organização das aplicações na TVDI, considerando o mapeamento dos dados nos três níveis: operacional, analítico e semântico (estendendo a visão Linked  Data).

    Com a difusão e o crescimento da televisão digital nos lares de todo o mundo, o usuário usufrui de imagem e som de melhor qualidade, além de ter acesso a diversos tipos de conteúdos inseridos em uma nova mídia mais completa[N1] , que é a TV Digital Interativa (TVDI), onde tais conteúdos podem ser acessados através de vários dispositivos e meios distintos. Com toda essa complexidade, surgem variados cenários na TVDI, que vão desde a um simples aplicativo interativo operacional a aplicativos que avaliam o comportamento do usuário, cuja finalidade é oferecer resultados mais precisos e focados no perfil do usuário. A plataforma Knowledge TV (KTV) analisada neste trabalho tem como principal objetivo a inclusão de uma camada semântica que provê aplicações inseridas em um contexto recente que é a Web Semântica, propondo novos desafios na busca de um ambiente de convergência digital. Assim, a proposta desta dissertação é o desenvolvimento de um Framework Conceitual de multi-modelos de dados para a organização das aplicações na TVDI, considerando o mapeamento dos dados nos três níveis: operacional, analítico e semântico (estendendo a visão Linked  Data).

     [N1]Ressaltar que alem de melhor imagem e som o usuário tbm pode receber aplicações e dados.

  • EDUARDO FREIRE SANTANA
  • SEGMENTAÇÃO NÃO SUPERVISIONADA DE IMAGENS DE SENSORIAMENTO REMOTO POR MINIMIZAÇÃO DA ENTROPIA CRUZADA
  • Data: 30/08/2012
  • Hora: 14:00
  • Mostrar Resumo
  • Sensoriamento remoto é uma das tecnologias que mais rapidamente cresceu durante o final do século XX e início do século XXI. O uso mais comum deste termo refere-se à observação da superfície terrestre por meio de satélites. Em sensoriamento remoto, segmentação de imagem é uma ferramenta frequentemente utilizada no auxílio à detecção de mudança de paisagens e classificação do uso do solo. Este trabalho se propõe à pesquisa e ao desenvolvimento de um novo método para segmentação não-supervisionada de imagens de sensoriamento remoto baseado na minimização da entropia cruzada entre a distribuição de probabilidade da imagem e um modelo estatístico. Para os testes realizados, foram utilizadas quinze imagens capturadas pelo sensor TM (Thematic Mapper) do satélite Landsat 5. A partir do banco de dados do projeto de mapeamento do uso do solo da região amazônica TerraClass, foram derivadas imagens temáticas utilizadas como gabarito para medir o desempenho do classificador desenvolvido. O algoritmo proposto parte de uma segmentação inicial e busca iterativamente melhorar o modelo estatístico que estima a densidade de probabilidade da imagem, de forma a reduzir a entropia cruzada em relação à iteração anterior. Os resultados indicam que a minimização da entropia cruzada está relacionada com uma segmentação coerente das imagens. Duas abordagens foram desenvolvidas, uma realizando classificação pixel a pixel e outra classificando regiões obtidas pela transformada Watershed. Para a abordagem por pixel, a concordância média entre o classificador e o gabarito foi de 88,75% para as quinze imagens selecionadas e de 91,81% para quatro pequenas regiões que representam detalhes de uma das imagens. Para a abordagem por região, a concordância média foi de 87,33% para as imagens e 91,81% para os detalhes. Os gabaritos dos detalhes de imagem foram preparados manualmente por um especialista.

  • FELIPE LACET SILVA FERREIRA
  • Provendo Suporte a Língua de Sinais em Middlewares Compatíveis com a ITU J.202
  • Orientador : GUIDO LEMOS DE SOUZA FILHO
  • Data: 30/08/2012
  • Hora: 10:00
  • Mostrar Resumo
  • As línguas de sinais são línguas naturais de modalidade gestual-visual utilizadas pelos surdos na comunicação. Atualmente, o uso de língua de sinais na TV é ainda limitado a dispositivos manuais, onde a janela com um intérprete é exibida sobrepondo o vídeo do programa. Alguns trabalhos, como Amorim et al. [30] e Araújo et al [14] foram propostos, mas ainda possuem algumas lacunas para serem resolvidas. Neste trabalho é proposta uma solução para prover o suporte a língua de sinais em middlewares de sistemas de televisão digital compatíveis com a especificação ITU-T J.202 [29]. Uma caracteristica importante da solução apresentada nesse trabalho é que não é necessário adaptar as APIs existentes ou criar novas APIS para prover esse suporte. Para validar a solução proposta um estudo de caso foi desenvolvido utilizando o Ginga-J, a parte procedural do middleware Ginga compatível com a especificação ITU J.202. Alguns testes aplicados com surdos confirmam a viabilidade da solução.

  • ALAN LIVIO VASCONCELOS GUEDES
  • UMA SOLUÇÃO PARA EXECUÇÃO DE APLICAÇÕES GINGA-NCL USANDO SEGUNDA TELA EM SISTEMAS BROADBANDTV
  • Data: 29/08/2012
  • Hora: 15:00
  • Mostrar Resumo
  • No desenvolvimento de aplicações para TV Digital, o ambiente Ginga-NCL prove suporte a aplicações
    com uso de dispositivos de segunda tela. Entretanto, foi apenas com recentes esforços na
    implementação de referência do Ginga-NCL que esse recurso foi de fato viabilizado, utilizando uma
    estratégia de associação de perfis UAProf aos dispositivos necessários. Este trabalho propõe uma
    arquitetura de portal de aplicações BroadbandTV que utiliza o ambiente Ginga-NCL, sendo capaz de
    apresentar ao usuário uma lista de aplicações compatíveis ao seu contexto de execução
    multidispositivos. Como resultados, são apresentadas a descrição da arquitetura e a execução de testes
    com protótipos de software.
    No desenvolvimento de aplicações para TV Digital, o ambiente Ginga-NCL prove suporte a aplicaçõescom uso de dispositivos de segunda tela. Entretanto, foi apenas com recentes esforços naimplementação de referência do Ginga-NCL que esse recurso foi de fato viabilizado, utilizando umaestratégia de associação de perfis UAProf aos dispositivos necessários. Este trabalho propõe umaarquitetura de portal de aplicações BroadbandTV que utiliza o ambiente Ginga-NCL, sendo capaz deapresentar ao usuário uma lista de aplicações compatíveis ao seu contexto de execuçãomultidispositivos. Como resultados, são apresentadas a descrição da arquitetura e a execução de testescom protótipos de software.

  • FELIPE HERMINIO LEMOS
  • Uma Proposta de Protocolo de Codificação de Libras para Sistemas de TV Digital
  • Data: 29/08/2012
  • Hora: 14:00
  • Mostrar Resumo
  • Os sistemas de TV Digital atuais não possuem padronização especifica para línguas de sinais (LS). A solução utilizada na TV nos dias de hoje, consiste em transmitir uma janela com um interprete de LS sobreposto ao vídeo do programa. Esta solução se mostra ineficaz em vários aspectos: possui um alto custo operacional, e dependente de um interprete em tempo integral, alem de distrair os telespectadores que não são surdos. Somado a tudo isso, a geração de uma mesma janela para todos os usuários, nao respeita as diferenças regionais das LS. Para reduzir esses problemas, o objetivo principal desse trabalho e propor um protocolo que viabilize a codificação e transmissão de janelas em Língua Brasileira de Sinais (LIBRAS) para sistemas de televisão digital. Nessa proposta, os quadros do vídeo da janela de LIBRAS não são transmitidos. Em vez disso, e transmitido um conjunto de códigos, onde cada código esta relacionado a representação visual de um sinal de LIBRAS armazenada no receptor. Dessa forma, e possível respeitar as diferenças regionais e reduzir a largura de banda utilizada na transmissão. Adicionalmente, também são investigadas estratégias para representar efeitos sonoros, entonação de voz e nuances emocionais na sinalização.

  • DANILO ASSIS NOBRE DOS SANTOS SILVA
  • Uma Linguagem Formal e Expansível para Descrição de Sinais da Língua Brasileira de Sinais
  • Data: 29/08/2012
  • Hora: 10:00
  • Mostrar Resumo
  • Os surdos se comunicam naturalmente por línguas gestuais e visuais, denominadas línguas de sinais. Essas línguas são línguas naturais compostas por itens lexicais denominados sinais e possuem gramáticas e vocabulários próprios. Neste trabalho, propomos a definição de uma linguagem formal, expressiva e coerente para descrever sinais em língua brasileira de sinais (LIBRAS). Esta linguagem permite que todos os parâmetros constituintes de um sinal sejam especificados e, a partir deles, uma animação para aquele sinal possa ser gerada com base em avatares humanóide 3D.  Além disso, a linguagem proposta é flexível e permite que novos parâmetros (ou fonemas) sejam especificados dinamicamente. Para prover um estudo de caso para a linguagem proposta, um sistema para construção colaborativa de um vocabulário de LIBRAS com base em avatares humanóides 3D também foi desenvolvido. Um conjunto de testes com surdos brasileiros também foi realizado para avaliar este sistema.

  • GUSTAVO SAVIO DE OLIVEIRA
  • Um framework para testes de software na nuvem
  • Data: 29/08/2012
  • Hora: 10:00
  • Mostrar Resumo
  • Infraestruturas de computação em nuvens podem ser utilizadas para tornar o processo de testes mais eficiente e eficaz, obtendo desde redução dos custos de aquisição de infraestrutura à flexibilidade em se utilizar apenas os recursos realmente necessários para efetuar os testes. Entretanto, explorar tais infraestruturas para auxiliar no processo de testes requer procedimentos de configuração e automatização nem sempre disponíveis. Neste contexto, identificamos a ausência de ferramental que efetivamente automatizasse todo o processo e tornasse uma infraestrutura de computação em nuvem parte integrante do ambiente de desenvolvimento e testes. Este trabalho objetiva apresentar uma solução que distribui e coordena a execução paralela de testes automáticos de software em ambientes distribuídos e heterogêneos. Tal solução, denominada CloudTesting fornece ao desenvolvedor o suporte necessário para executar testes de unidade de software na nuvem. Experimentos realizados com o CloudTesting e uma infraestrutura de computação na nuvem demonstraram reduções de mais de 20 horas no tempo gasto de execução de um conjunto sintético de testes de unidade.

  • DIOGO HENRIQUE DUARTE BEZERRA
  • Luar: Um Sistema de Processamento de Templates NCL
  • Data: 24/08/2012
  • Hora: 16:00
  • Mostrar Resumo
  • O domnio alvo deste trabalho s~ao as aplicac~oes para TV digital, onde o foco esta
    na interac~ao entre o usuario e a aplicac~ao. O objetivo deste trabalho e desenvolver um
    sistema de templates que facilite a construc~ao desse tipo de aplicac~ao e diminua o tempo
    gasto com desenvolvimento por meio da tecnica de reuso. Este trabalho apresenta o Luar:
    Um Sistema de Processamento de Templates NCL. O sistema foi concebido por meio da
    analise do comportamento de aplicac~oes para TVDI, implementado usando-se a linguagem
    Lua, tendo como meta facilitar o projeto e a implementac~ao de aplicac~oes interativas para
    TV digital.
    O domínio alvo deste trabalho são as aplicações para TV digital, com foco na interação entre o usuário e a aplicação. O objetivo deste trabalho e desenvolver um sistema de templates que facilite a construção desse tipo de aplicação e diminua o tempo gasto com desenvolvimento por meio da técnica de reuso. Este trabalho apresenta o Luar,  um Sistema de Processamento de Templates NCL. O sistema foi concebido por meio daanalise do comportamento de aplicações para TVDI, usando-se a linguagem Lua, tendo como meta facilitar o projeto e a implementação de aplicações interativas paraTV digital. O sistema de processamento de templates é validado com experimentos reais com usuários desenvolvedores de aplicação e os resultados mostram que seu uso reduz o tempo de desenvolvimento das aplicações

  • DIEGO ERNESTO ROSA PESSOA
  • Um modelo híbrido de metadados baseado em meta-modelos dinâmicos para Integração entre redes heterogêneas de ativos digitais
  • Data: 24/08/2012
  • Hora: 14:00
  • Mostrar Resumo
  • O gerenciamento de grandes repositórios de ativos digitais tem se
    tornado uma atividade importante com o crescimento do número de
    dispositivos multimídia conectados (smartphones, tablets, smartTV, TV
    digital), além dos dispositivos tradicionais (desktops, laptops). Os
    ativos digitais precisam ser identificados por metadados bem definidos
    de maneira que instâncias diferentes de um mesmo conteúdo (ex:
    conteúdos em diferentes formatos ou resolução de vídeo) possam ser
    adequadamente localizados e usados em diferentes dispositivos,
    permitindo o conceito de “mídia cruzada”. Além disso, está se tornando
    comum o intercâmbio de mídia entre diferentes repositórios e acervos
    entre instituições diferentes (domínios), o que exige padronização de
    metadados para localização eficiente. Este trabalho propõe um
    meta-modelo dinâmico que possibilite a integração em nível de
    metadados entre domínios heterogêneos de ativos digitais onde cada
    domínio contém características peculiares e pode adotar modelos de
    metadados distintos. Além disso, implementa um estudo de caso aplicado
    ao contexto de gerenciamento de ativos digitais, contendo ao menos
    dois domínios, onde cada um utiliza um padrão de metadados distinto e
    efetua operações de troca de conteúdos.

  • RAMON LEONN VICTOR MEDEIROS
  • Uma Ferramenta de Geração de Código VHDL a partir do Modelo de Atores utilizando o Framework Ptolemy
  • Data: 24/08/2012
  • Hora: 10:00
  • Mostrar Resumo
  • Na área de Microeletrônica uma das maiores dificuldades trata-se de encontrar profissionais capacitados. Para a formação destes há uma demanda por recursos – humanos e materiais - que, muitas vezes, tem alto custo. Assim, se faz necessária uma solução tão acessível a instituições e pesquisadores, quanto adaptável às suas necessidades, propiciando escalabilidade e disseminação à formação, sem deixar de focar a qualidade. O objetivo deste trabalho é o desenvolvimento de uma ferramenta de geração de código VHDL  baseada em Atores utilizando o Framework Ptolemy. Onde, além de projetar e simular graficamente modelos, os alunos podem gerar código VHDL e transferi-los para testar em FPGAs.

  • CARLOS AUGUSTO AYRES CARVALHO
  • LASIC PROCESS: UM FRAMEWORK CONCEITUAL PARA INTEGRAÇÃO DE PADRÕES DE GESTÃO AO DESENVOLVIMENTO DE PROJETOS DE PROPRIEDADE INTELECTUAL DE SISTEMAS ELETRÔNICOS INTEGRADOS EM CHIPS (IP-SOCS)
  • Data: 23/08/2012
  • Hora: 14:30
  • Mostrar Resumo
  • Esse trabalho é apresentado como uma contribuição para a área de projeto de sistemas integrados em circuitos (SoCs); especificamente, o trabalho aborda a inclusão de uma camada de gestão de projetos no(s) fluxo(s) de projeto de circuitos integrados.

    O foco deste trabalho consiste em desenvolver e implementar um (novo) framework de execução e gerenciamento de tarefas dedicado ao desenvolvimento de circuitos digitais integrados, com forte ênfase na gestão de projetos, denominado Lasic-Process.

    Neste trabalho, serão estudadas e apresentadas as etapas e interdependências do fluxo de projeto de circuitos VLSI (Very-large-scale integration), as principais metodologias de Verificação Funcional (contemplando cada nível hierárquico), a identificação dessas etapas na utilização de um conjunto de ferramentas de concepção acadêmica: Alliance e o aplicativo de gestão de projetos dotProject (DOT,2011) com vistas a identificar em seu banco de dados, os campos de registro que serão alterados para a atualização do gráfico de Gantt do projeto, proporcionando o acompanhamento sistemático da evolução das tarefas em tempo real.

  • MARIANA DE LUNA FREIRE DUARTE
  • MINERAÇÃO DE DADOS USANDO PROGRAMAÇÃO GENÉTICA
  • Data: 23/08/2012
  • Hora: 14:00
  • Mostrar Resumo
  • A mineração de dados tornou-se uma importante atividade para a tomada de decisão para grandes ou pequenas corporações, pois a partir dela é possível extrair informações relevantes e não triviais de forma que correções e ajustes em estratégias econômicas e administrativas possam ser solucionados. Assim, vê-se um aumento no armazenamento de dados geográficos, de tal maneira que a mineração de dados convencionais não suporta realizar a extração de conhecimento em um banco de dados composto por estes tipos de dados. De acordo com a literatura atual, poucas ferramentas capazes de extrair conhecimento a partir de dados geográficos são encontradas, principalmente, quando a base de dados é composta por dados convencionais (numéricos e textuais) e geográficos (ponto, linha e polígono). Este trabalho tem como objetivo principal apresentar um novo algoritmo para a atividade de mineração de dados espaciais utilizando os dois tipos de dados para realizar a extração de informações de uma determinada base. O algoritmo em questão tem como base o algoritmo DMGeo que, por sua vez, também visa extrair conhecimento a partir dos dois tipos de dados. Estes algoritmos são baseados na Programação Genética e foram desenvolvidos a fim de obte regras de classificação de padrões existentes nos atributos numéricos e geográficos.

  • BRUNO MAIA DE MORAIS
  • InteliCare – Infraestrutura de Telessaúde para Apoio à Serviços de Atenção domiciliar baseada Redes de Sensores Sem fio e Sistemas Embarcados
  • Data: 20/08/2012
  • Hora: 09:00
  • Mostrar Resumo
  • InteliCare – Infraestrutura de Telessaúde para Apoio à Serviços de Atenção domiciliar baseada Rede de Sensores Sem fio e Sistemas Embarcados

  • DUILIO ASSIS NOBRE DOS SANTOS SILVA
  • Um Método Geral para Redução de Grandes Conjuntos de Dados Baseado em Difusão Geometrica Markoviana
  • Data: 17/08/2012
  • Hora: 14:00
  • Mostrar Resumo
  • A redução de dados está se tornando uma área proeminente dado ao crescimento da quantidade de dados que estão sendo gerados a partir de diferentes áreas de conhecimento. Os algoritmos atuais determinam quais instâncias são selecionadas usando medidas de distâncias tradicionais. Além disso, a maioria dos algoritmos é impraticável para alguns problemas devido ao alto custo de processamento para conjuntos de dados com grande número de instâncias. Este trabalho apresenta um novo método para redução de conjunto de dados como uma extensão do método de Difusão Geométrica Markoviana (DGM), que é usado no campo de computação gráfica para simplificação de malhas triangulares. O DGM foi estendido para reduzir conjuntos de dados em geral, preservando os elementos que possuem certas características desejadas. O processo de redução baseia-se na análise probabilística da propagação de calor entre partículas. Aquelas com maior capacidade de reter calor serão as instâncias mais representativas. Além disso, ele captura estruturas não lineares dos dados e possui uma abordagem multiescala quando processa densidades locais. Vários experimentos foram realizados em conjuntos de dados de diferentes tamanhos. Resultados mostraram boa performance em termos de precisão de classificação e qualidade de redução na preservação de informação do método.

  • Lucas Lucena Gambarra
  • PROPOSTA DE IMPLEMENTAÇÃO EM HARDWARE PARA O ALGORITMO NON-LOCAL MEANS
  • Data: 13/08/2012
  • Hora: 10:00
  • Mostrar Resumo
  • Imagem digital é a representação de uma imagem bidimensional usando
    números binários codificados de modo a permitir seu armazenamento, transferência,
    impressão ou reprodução, e seu processamento por meios eletrônicos. É formada por
    um conjunto de pontos definidos por valores numéricos, escala de cinza, no qual cada
    ponto representa um pixel.
    Em qualquer imagem digital, a medição do nível de cinza observada em cada
    pixel é sujeita a algumas perturbações. Essas perturbações são devidas à natureza
    aleatória do processo de contagem de fótons nos sensores usados para captura da
    imagem. O ruído pode ser amplificado por correções digitais ou por qualquer software
    de processamento de imagem como, por exemplo, as ferramentas que aumentam o
    contraste.
    A remoção de ruídos cujo objetivo é recuperar, ou estimar a imagem original, é
    ainda um dos mais fundamentais e amplamente estudados problemas do
    processamento de imagem. Em diversas áreas, a remoção de ruídos é uma etapa
    fundamental para melhorar a qualidade dos resultados. Entre as alternativas com
    essa finalidade, o método proposto por Buades (2005), conhecido como Non-Local
    Means (NLM), representa o estado da arte.
    Embora bastante eficaz quanto à remoção de ruídos, o NLM é muito lento para
    ser realizado de modo prático. Sua complexidade computacional é alta devido à
    necessidade de cálculo de pesos para todos os pixels da imagem durante o processo
    de filtragem de cada pixel, resultando numa complexidade quadrática no número de
    pixels da imagem. Os pesos são obtidos por meio do cálculo da diferença entre as
    vizinhanças de pixels correspondentes.
    Muitas aplicações possuem requisitos de tempo para que seus resultados
    sejam úteis, e nesse contexto, este trabalho propõe uma implementação em FPGA
    para o algoritmo Non-local means com o objetivo de obter um baixo tempo de
    execução usando, para isto: pipelines, paralelismo em hardware e aproximação linear
    por partes. A implementação proposta é aproximadamente 290 vezes mais rápida que
    o algoritmo Non-local means em software e apresenta, além disso, resultados
    semelhantes ao algoritmo original quanto ao erro médio quadrático (MSE) e a
    qualidade perceptiva de imagem.

  • YURI GONZAGA GONÇALVES DA COSTA
  • DESENVOLVIMENTO E IMPLEMENTAÇÃO EM FPGA DE UM COMPRESSOR SEM PERDAS DE BAIXA COMPLEXIDADE PARA IMAGENS DE SATÉLITE
  • Data: 31/07/2012
  • Hora: 14:00
  • Mostrar Resumo
  • A quantidade de dados gerados e transmitidos pelos satélites para as estações
    na Terra é cada vez maiores. Com o passar do tempo e avanço da tecnologia, os
    sistemas de imageamento espaciais, particularmente as missões de observação da
    Terra, tem utilizado equipamentos com resoluções cada vez maiores. Por esse motivo,
    se faz necessário garantir que os dados cheguem ao destino de maneira confiável.
    Dentre algumas técnicas envolvidas, a compressão de dados é o meio mais viável de
    alcançar esse requisito. Um sistema de compressão de dados para esse fim deve
    obedecer algumas condições, principalmente quanto ao desempenho. Nesse contexto,
    implementações em hardware baseadas em predição e codificação de Golomb-Rice
    têm obtido excelentes resultados considerando desempenho do hardware e da
    compressão, tanto nos casos sem perdas como nos com perdas. O presente trabalho
    apresenta uma proposta de hardware digital de um compressor sem perdas para
    imagens de satélite baseado em predição e codificação Golomb-Rice que busca um
    balanceamento entre os requisitos de desempenho e a propagação de erros, um
    problema comum no âmbito de sistemas espaciais e que é potencializado no caso dos
    compressores de dados. Para validação e análise do compressor, é seguida uma
    metodologia de verificação funcional de hardware digital e o desenvolvimento de um
    protótipo em FPGA. Dado um conjunto de imagens do satélite CBERS-2B
    disponibilizadas pelo Instituto Nacional de Pesquisas Espaciais, os resultados obtidos
    em FPGA mostram que esse compressor alcança razão de compressão média de 3,4,
    valor comparável a trabalhos correlatos, e velocidade de 28 MPixel/s (224 Mbit/s).
    Considerando a natureza das imagens, a compressão pode ser paralelizada por meio
    de simultâneos núcleos compressores em uma abordagem multicore. Por exemplo,
    usando 5 núcleos, o sistema proposto é capaz de comprimir essas imagens em uma
    velocidade de 142 MPixel/s (1.1 Gbit/s). Todas essas características tornam-no útil e
    efetivo para a aplicação em um sistema moderno de imageamento para
    sensoriamento remoto.
    A quantidade de dados gerados e transmitidos pelos satélites para as estaçõesna Terra é cada vez maiores. Com o passar do tempo e avanço da tecnologia, ossistemas de imageamento espaciais, particularmente as missões de observação daTerra, tem utilizado equipamentos com resoluções cada vez maiores. Por esse motivo,se faz necessário garantir que os dados cheguem ao destino de maneira confiável.Dentre algumas técnicas envolvidas, a compressão de dados é o meio mais viável dealcançar esse requisito. Um sistema de compressão de dados para esse fim deveobedecer algumas condições, principalmente quanto ao desempenho. Nesse contexto,implementações em hardware baseadas em predição e codificação de Golomb-Ricetêm obtido excelentes resultados considerando desempenho do hardware e dacompressão, tanto nos casos sem perdas como nos com perdas. O presente trabalhoapresenta uma proposta de hardware digital de um compressor sem perdas paraimagens de satélite baseado em predição e codificação Golomb-Rice que busca umbalanceamento entre os requisitos de desempenho e a propagação de erros, umproblema comum no âmbito de sistemas espaciais e que é potencializado no caso doscompressores de dados. Para validação e análise do compressor, é seguida umametodologia de verificação funcional de hardware digital e o desenvolvimento de umprotótipo em FPGA. Dado um conjunto de imagens do satélite CBERS-2Bdisponibilizadas pelo Instituto Nacional de Pesquisas Espaciais, os resultados obtidosem FPGA mostram que esse compressor alcança razão de compressão média de 3,4,valor comparável a trabalhos correlatos, e velocidade de 28 MPixel/s (224 Mbit/s).Considerando a natureza das imagens, a compressão pode ser paralelizada por meiode simultâneos núcleos compressores em uma abordagem multicore. Por exemplo,usando 5 núcleos, o sistema proposto é capaz de comprimir essas imagens em umavelocidade de 142 MPixel/s (1.1 Gbit/s). Todas essas características tornam-no útil eefetivo para a aplicação em um sistema moderno de imageamento parasensoriamento remoto.

  • Adriano da Silva Marinho
  • Uma nova versão de um sistema para detecção e reconhecimento de face utilizando a transformada cosseno discreta
  • Data: 30/07/2012
  • Hora: 14:00
  • Mostrar Resumo
  •  

    Sistemas de identificação confiáveis tornaram-se componentes chaves de várias aplicações que disponibilizam serviços para usuários autenticados. Uma vez que métodos tradicionais para estabelecer a identidade de um usuário (como os que utilizam senhas ousmartcards) podem ser manipulados com o objetivo de burlar os sistemas, métodos de autenticação biométrica vêm recebendo mais atenção nos últimos anos. Um dos traços biométricos é a face. O problema do reconhecimento de faces em vídeo e foto é objeto de pesquisa, uma vez que existem muitos fatores que influenciam na detecção e no reconhecimento, tais como: iluminação, posição da face, imagem ao fundo, diferentes expressões faciais, etc. É possível realizar reconhecimento facial utilizando a Transfomada Cosseno Discreta (DCT). Com o intuito de investigar a robustez do reconhecimento facial utilizando a DCT em relação à iluminação, posição e escala, neste trabalho foram desenvolvidas duas melhorias para o sistema de reconhecimento facial SDRF de (OMAIA, 2009): uma etapa de normalização de posição e escala para imagens e uma modificação na etapa de seleção de atributos, por meio da inserção de um filtro passa-baixas não ideal.

  • FAUSTO ALVES DE SOUSA NETO
  • DITV-Learning: Uma Ferramenta de Autoria para Construção de Objetos Digitais de Aprendizagem para TV Digital Interativa
  • Data: 27/07/2012
  • Hora: 14:00
  • Mostrar Resumo
  • O uso crescente de computadores nas escolas vem mudando o padrão de ensino no Brasil e possibilitando que professores interfiram em soluções que tornem o processo de aprendizagem mais participativo e interativo. Neste cenário os objetos de aprendizagem (OA) têm se mostrado uma ferramenta eficiente. A construção de um OA para web ou para TV digital envolve conhecimentos específicos de informática, tornando sua elaboração cara e demorada. Propomos uma ferramenta de autoria para a elaboração de objetos de aprendizagem para a TV digital interativa, que possa viabilizar a construção de OA por profissionais que possuam pouca habilidade em informática.

  • ALINE MARQUES DE MORAIS
  • Uma Arquitetura para Programação Visual de Ambientes baseados em Realidade Virtual para Profissionais da Saúde
  • Orientador : LILIANE DOS SANTOS MACHADO
  • Data: 18/06/2012
  • Hora: 09:00
  • Mostrar Resumo
  • A complexidade envolvida no processo de geração de aplicações médicas baseadas em Realidade Virtual (RV) exige, em sua maioria, um conhecimento específico em programação para manipular estes sistemas computacionais. Um estudo realizado neste trabalho observou que a maioria dos frameworks com as mesmas potencialidades em RV não possui interface de programação de aplicações voltada para usuários leigos. Isso se aplica em diversas áreas, inclusive na saúde. Neste contexto, se destaca o CyberMed como framework para desenvolvimento de aplicações médicas baseadas em RV. Outro levantamento realizado mostrou que os profissionais da área de saúde possuem vontade em interagir com sistemas em RV de fácil uso. Baseado nesses resultados e em outros estudos executados, esse trabalho apresentará um estudo sobre Programação Visual (PV) em frameworks na área de saúde e mostrará como essa técnica visual poderá ajudar no processo de interação e de geração de aplicações médicas, com recursos em estereoscopia, colisão, deformação e sensação háptica, por exemplo, uma tarefa intuitiva no processo de execução pelos usuários leigos em programação ou um processo de rápida realização pelos usuários com conhecimento específico em programação. Como resultado desse estudo, será apresentado a arquitetura de um Sistema de PV chamado de CyberMedVPS, baseado nas técnicas de PV e que possibilitará a interação predominantemente gráfica com frameworks de saúde na área de RV para os profissionais de saúde

  • MANUELLA DIAS CARVALHO SILVA
  • Monitoramento Remoto Preventivo de Pacientes com Doenças Cardiovasculares Utilizando Dispositivos Móvel como Agente Inteligente
  • Data: 24/05/2012
  • Hora: 14:00
  • Mostrar Resumo
  • JOSE CARLOS A PATRICIO JUNIOR
  • Uma Abordagem de Ambiente de KDD com Ênfase em Mineração de Dados no Ambiente da Knowledge TV

  • Data: 18/05/2012
  • Hora: 14:00
  • Mostrar Resumo
  • A TV Digital Interativa traz inúmeras inovações ao cenário analógico que existia anteriormente, dentre elas: aumento da qualidade de som, imagem, aumento quantidade de canais, programas e serviços disponíveis ao usuário. Contudo, as informações que representam o conteúdo multimídia se apresentam estruturadas de forma tradicional, em formato de tabelas e arquivos, não provendo interoperabilidade entre as informações, nem possuindo semântica. Neste contexto o projeto Knowledge TV - KTV propõe organizar os dados presentes na TV Digital semanticamente, utilizando para isso conceitos de Web Semântica e representação de conteúdo, para fornecer uma arquitetura para desenvolvimento de aplicações. Um dos principais componentes do KTV é o ambiente de descoberta de conhecimento em base de dados apoiado por conceitos semânticos. Neste contexto, este trabalho visa especificar e desenvolver esse ambiente que nesta abordagem será chamado de Mining Knowledge TV – MKTV.

  • RENNAN NUNES TOSCANO
  • GRASP COM ALGORITMOS HIBRIDOS APLICADOAO PROBLEMA DA ARVORE GERADORA DE CUSTO MINIMO CAPACITADA EM NIVEIS
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 11/05/2012
  • Hora: 09:00
  • Mostrar Resumo
  •  

    Apresenta-se, nesta tese, um algoritmo híbrido, baseado na metaheurística
    Greedy Randomized Adaptive Search (GRASP), para obter soluções
    melhores e reduzir o custo computacional para o problema conhecido
    como o Problema da Árvore Geradora de Custo Mínimo Capacitada
    em Níveis (PAGCMCN). Este problema, normalmente encontrado ao
    se projetar uma rede, consiste em determinar a melhor maneira de se
    conectar vários terminais a um computador central, de forma a atender
    suas demandas. As conexões podem envolver diferentes tipos de
    linhas de transmissão, onde cada tipo possui uma capacidade máxima
    de transmissão distinta. No algoritmo proposto, o otimizador CPLEX
    12.2 é acionado, tanto na fase de construção quanto na de busca local,
    com vistas a uma exploração mais efetiva do espaço de busca. Os
    experimentos computacionais mostraram que o algoritmo proposto é
    bastante competitivo, superando em várias instâncias os resultados da
    literatura e obtendo resultados muito próximos nas demais.

    Apresenta-se, nesta tese, um algoritmo híbrido, baseado na metaheurísticaGreedy Randomized Adaptive Search (GRASP), para obter soluçõesmelhores e reduzir o custo computacional para o problema conhecidocomo o Problema da Árvore Geradora de Custo Mínimo Capacitadaem Níveis (PAGCMCN). Este problema, normalmente encontrado aose projetar uma rede, consiste em determinar a melhor maneira de seconectar vários terminais a um computador central, de forma a atendersuas demandas. As conexões podem envolver diferentes tipos delinhas de transmissão, onde cada tipo possui uma capacidade máximade transmissão distinta. No algoritmo proposto, o otimizador CPLEX12.2 é acionado, tanto na fase de construção quanto na de busca local,com vistas a uma exploração mais efetiva do espaço de busca. Osexperimentos computacionais mostraram que o algoritmo proposto ébastante competitivo, superando em várias instâncias os resultados daliteratura e obtendo resultados muito próximos nas demais.

  • SEVERINO DO RAMO DE PAIVA
  • ESCOLLAB: UMA METODOLOGIA COLABORATIVA VOLTADA PARA O ENSINO DE ENGENHARIA DE SOFTWARE
  • Data: 23/04/2012
  • Hora: 10:00
  • Mostrar Resumo
  • O patrimônio cultural nas últimas décadas vem ampliando seu conceito e as mais diversas áreas de conhecimento vêm sendo reestruturadas para garantir a proteção do patrimônio em sua totalidade. A Antropologia, o Direito, a História e a Sociologia são apenas alguns exemplos dessas áreas que vêm se moldando a ampliação do conceito de Patrimônio Cultural. A Área de Ciências da Computação, embora seja uma vertente que pode contribuir de uma maneira mais completa para a proteção do bem imaterial, ainda não possui muitos instrumentos e meios que moldem ou ditem como garantir o legado cultural através de suas variadas ferramentas. O presente trabalho está atento à necessidade de preservação e proteção da cultura e visa contribuir com esta finalidade através de uma abordagem orientada a features, explicando como e porque conservar os variados aspectos do bem imaterial em meio digital. A avaliação da abordagem proposta neste trabalho foi feita através do desenvolvimento do PAMIN. Este espaço de experimentação possibilitou a validação da representação e gerenciamento do Patrimônio Cultural Imaterial através de sua interface, de suas funcionalidades e seus variados aspectos de representação em meio digital.

  • José Rogério Bezerra Barbosa Filho
  • Um Método Automático de Detecção de Massas em Mamografias por meio de Redes Neurais
  • Data: 20/04/2012
  • Hora: 16:00
  • Mostrar Resumo
  • O patrimônio cultural nas últimas décadas vem ampliando seu conceito e as mais diversas áreas de conhecimento vêm sendo reestruturadas para garantir a proteção do patrimônio em sua totalidade. A Antropologia, o Direito, a História e a Sociologia são apenas alguns exemplos dessas áreas que vêm se moldando a ampliação do conceito de Patrimônio Cultural. A Área de Ciências da Computação, embora seja uma vertente que pode contribuir de uma maneira mais completa para a proteção do bem imaterial, ainda não possui muitos instrumentos e meios que moldem ou ditem como garantir o legado cultural através de suas variadas ferramentas. O presente trabalho está atento à necessidade de preservação e proteção da cultura e visa contribuir com esta finalidade através de uma abordagem orientada a features, explicando como e porque conservar os variados aspectos do bem imaterial em meio digital. A avaliação da abordagem proposta neste trabalho foi feita através do desenvolvimento do PAMIN. Este espaço de experimentação possibilitou a validação da representação e gerenciamento do Patrimônio Cultural Imaterial através de sua interface, de suas funcionalidades e seus variados aspectos de representação em meio digital.

  • CARLOS PEIXOTO MANGUEIRA JUNIOR
  • Paralelizando o MOPAC usando CUDA e bibliotecas de Matrizes Esparsas
  • Data: 23/03/2012
  • Hora: 15:00
  • Mostrar Resumo
  • Este trabalho apresenta a implementação de algoritmos paralelos cujo objetivo principal é acelerar a execução de cálculos numéricos existentes em programas de Química Quântica. Estes programas utilizam alguns métodos cuja ordem de complexidade varia entre O(n3) e O(n5), onde o parâmetro n está relacionado à quantidade de átomos de uma molécula. Isto se torna um fator limitante quando se quer trabalhar com sistemas moleculares contendo milhares de átomos, como por exemplo, proteínas, DNA, polissacarídeos. Será explorado tanto o paralelismo proporcionado pelas placas gráficas e pelo modelo de programação CUDA como também serão utilizadas bibliotecas para manipulação de matrizes esparsas, que são comuns nestes cálculos.

  • ALEXANDER DE ALMEIDA PINTO
  • UTILIZAÇÃO DAS METAHEURÍSTICAS GRASP E ILS COM BUSCA LOCAL EXATA PARA RESOLUÇÃO DO PROBLEMA DE CONSTRUÇÃO DE TRILHOS DE AERONAVES

  • Data: 22/03/2012
  • Hora: 15:00
  • Mostrar Resumo
  •  

    Os problemas operacionais cresceram muito em complexidade nos ´ultimos tempos, o que tem tornado necess´ario o desenvolvimento de t´ecnicas que possam agilizar a tomada de decis˜ao. Empresas que n˜ao utilizam sistemas computadorizados com essa finalidade tem perdido espac¸o entre seus concorrentes. A construc¸ ˜ao de trilhos de aeronaves ´e considerado um dos principais problemas da ind´ustria aeron´autica e se refere ao sequˆenciamento dos voos de uma companhia a´erea de forma que o menor n´umero de aeronaves seja necess´ario para opera-las. Esse problema possui uma caracter´ıstica combinat ´oria e a sua resoluc¸ ˜ao fica mais dif´ıcil a medida que a quantidade de voos envolvidos cresce. Entretanto pequenas modificac¸ ˜oes nos hor´arios de partida desses voos, ou o acr´escimo de algum voo de resposicionamento entre dois aeroportos pr´oximos podem gerar soluc¸ ˜oes de baixo custo. Apresentamos uma algoritmo h´ıbrido baseado na metaheur´ıstica GRASP, com a utilizac¸ ˜ao do ILS e de programac¸ ˜ao inteira na busca local. Esse algoritmo ´e indicado para resoluc¸ ˜ao de problemas de larga escala, pois nesse caso fica invi´avel a aplicac¸ ˜ao de um algoritmo puramente exato que poderia levar anos para realizar a tarefa. Os resultados preliminares tem mostrado agilidade na obtenc¸ ˜ao de boas soluc¸ ˜oes.

    Os problemas operacionais cresceram muito em complexidade nos ´ultimostempos, o que tem tornado necess´ario o desenvolvimento de t´ecnicas quepossam agilizar a tomada de decis˜ao. Empresas que n˜ao utilizam sistemascomputadorizados com essa finalidade tem perdido espac¸o entre seus concorrentes.A construc¸ ˜ao de trilhos de aeronaves ´e considerado um dos principaisproblemas da ind´ustria aeron´autica e se refere ao sequˆenciamento dos voosde uma companhia a´erea de forma que o menor n´umero de aeronaves sejanecess´ario para opera-las. Esse problema possui uma caracter´ıstica combinat´oria e a sua resoluc¸ ˜ao fica mais dif´ıcil a medida que a quantidade de voosenvolvidos cresce. Entretanto pequenas modificac¸ ˜oes nos hor´arios de partidadesses voos, ou o acr´escimo de algum voo de resposicionamento entre doisaeroportos pr´oximos podem gerar soluc¸ ˜oes de baixo custo.Apresentamos uma algoritmo h´ıbrido baseado na metaheur´ısticaGRASP, com a utilizac¸ ˜ao do ILS e de programac¸ ˜ao inteira na busca local.Esse algoritmo ´e indicado para resoluc¸ ˜ao de problemas de larga escala, poisnesse caso fica invi´avel a aplicac¸ ˜ao de um algoritmo puramente exato quepoderia levar anos para realizar a tarefa. Os resultados preliminares tem mostradoagilidade na obtenc¸ ˜ao de boas soluc¸ ˜oes.

  • DANIEL LEITE VIANA COSTA
  • Uma Abordagem Heurística para o Problema de Roteamento DIAL-A-RIDE

  • Data: 22/03/2012
  • Hora: 10:00
  • Mostrar Resumo
  • Sistema de Carona Web utilizando a
    abordagem DARP

  • JOSÉ JUDSON MESQUITA CUNHA
  • PROPOSTA DE DESENVOLVIMENTO DE UM LABORATÓRIO VIRTUAL PARA ENSINO DE PROJETOS DE CIRCUITOS INTEGRADOS

  • Data: 01/03/2012
  • Hora: 16:00
  • Mostrar Resumo
  • Esse trabalho propõe a criação de um Laboratório Virtual (LV) para o treinamento à distância em projetos de Circuitos Integrados, visando atender às necessidades instituições de ensino e pesquisa. O referido laboratório é passivo de adaptação ao perfil Visual Ativo típico dos alunos de engenharia e computação, possuindo também outras características importantes como o acesso remoto às ferramentas de projeto com tutoria e acompanhamento do professor, gerenciamento de arquivos, visualização de vídeos e imagens das redes sociais, bem como a comunicação interpessoal através de mensagens assíncronas.

  • ANDRE LUIS DE LUCENA TORRES
  • Simulação baseada em atores como ferramenta de ensino de organização e arquitetura de computadores

  • Data: 01/03/2012
  • Hora: 14:00
  • Mostrar Resumo
  • A informática educativa se faz cada vez mais presente nas atividades pedagógicas. Nesta nova realidade, várias aplicações visam facilitar a construção do conhecimento por parte dos professores em relação aos alunos através de métodos dinâmicos, expondo aulas para múltiplos ramos sem haver grande esforço ou repetições desnecessárias. Na área da Computação, existe a necessidade de utilização de aplicações que facilitem a aprendizagem. Pois, se tem observado que os ensinos de alguns conceitos introdutórios em disciplinas essenciais costumam apresentar um nível de abstração que prejudica o aprendizado dos alunos de cursos de informática que já possuem uma grande dificuldade em lidar com disciplinas da área de hardware. A utilização de simuladores na educação se faz cada vez mais presente nas atividades pedagógicas. Nesta nova realidade, várias aplicações visam facilitar a construção do conhecimento por parte dos professores em relação aos alunos, através de métodos dinâmicos e expondo aulas para múltiplos ramos sem haver grande esforço ou repetições desnecessárias. Neste sentido, este trabalho apresenta os resultados alcançados com a aplicação de uma extensão desenvolvida numa ferramenta de modelagem e simulação de sistemas concorrente baseada em atores, denominada Ptolemy. A extensão foi criada para contribuir com o processo de ensino-aprendizagem da disciplina de Organização e Arquitetura de Computadores com alunos da graduação.

2011
Descrição
  • Bruno Barufaldi
  • QUALIMAMO – UMA FERRAMENTA PARA CONTROLE DE QUALIDADE DE MAMÓGRAFOS

  • Data: 29/12/2011
  • Hora: 10:00
  • Mostrar Resumo
  • QUALIMAMO – UMA FERRAMENTA PARA CONTROLE DE QUALIDADE DE MAMÓGRAFOS

  • ANTONIO DEUSANY DE CARVALHO JUNIOR
  • Análise de Padrões Musicais Rítmicos e Melódicos
    Utilizando o Algoritmo de Predição por Correspondência Parcial

  • Data: 26/12/2011
  • Hora: 08:00
  • Mostrar Resumo
  • Análise de Padrões Musicais Rítmicos e Melódicos
    Utilizando o Algoritmo de Predição por Correspondência Parcial

  • JULIO CESAR FERREIRA DA SILVA
  • STYLO: Um framework voltado para o desenvolvimento de aplicações baseadas em vídeo digital
  • Data: 21/11/2011
  • Hora: 15:00
  • Mostrar Resumo
  • Não Informado

  • MARIANA MEIRELLES DE MELLO LULA
  • Um Processo Ágil para Especificação de Requisitos em Programas Interativos com foco em Roteiros de TV
  • Data: 21/11/2011
  • Hora: 09:00
  • Mostrar Resumo
  • RESUMO

    A adição de software aos programas de TV através da implantação do Sistema Brasileiro de TV Digital impulsionou a integração dessas duas grandes indústrias: software e TV. Essas duas linhas de trabalho possuem diferentes pensamentos e formas de trabalhar, contudo, com a chegada da TV Digital estes dois perfis profissionais, comunicação e informática necessitam trabalhar juntos. A especificação de requisitos do software segue algumas atividades determinadas de acordo com o processo que está sendo utilizado. Na televisão digital a elicitação de requisitos encontra um ambiente diferente, no qual, temos perfis profissionais diversos que estão envolvidos nesta atividade. Neste trabalho apresentamos um processo ágil para a especificação de requisitos em programas interativos que integram conteúdo audiovisual e aplicações interativas, buscando facilitar o entendimento e desenvolvimento do programa interativo pela equipe envolvida. A abordagem apresentada é baseada em roteiro interativo e histórias de usuário. O roteiro interativo vai adicionar as informações da aplicação interativa ao roteiro da equipe de comunicação e, o storyboard irá facilitar o entendimento da aplicação. O processo foi utilizado em um projeto real, onde doze programas interativos foram desenvolvidos. Por fim, são discutidos os resultados obtidos e perspectivas.

     

     

  • JULIO CESAR FERREIRA DA SILVA
  • Data: 21/11/2011
  • Hora: 00:00

  • MARIANA MEIRELLES DE MELLO LULA
  • Data: 21/11/2011
  • Hora: 00:00

  • JONATAS PEREIRA CABRAL DE ARAUJO
  • CoreKTV - Uma infraestrutura baseada em conhecimento para TV Digital Interativa: um estudo de caso para o middleware Ginga
  • Data: 23/09/2011
  • Hora: 14:30
  • Mostrar Resumo
  • O surgimento da TV Digital promoveu um cenário de aumento da quantidade de canais, serviços e conteúdo disponíveis ao usuário. Entretanto, tais mudanças não foram refletidas na forma como o conteúdo multimídia é descrito. O modelo tradicional apresenta uma estrutura sintática, no qual as informações não possuem semântica, além do seu formato de representação para transmissão que não permite interoperabilidade com outros sistemas. Com a convergência entre as plataformas de TV e Web esse cenário passa a ser ainda mais problemático, uma vez que na Web já há um movimento em curso com o objetivo de tornar os sistemas interoperáveis e o formato de representação homogêneo. Neste cenário, este trabalho propõe uma infraestrutura para modelagem de conteúdo multimídia em TVDI baseada em conhecimento alinhado aos conceitos e padrões da Web Semântica, visando à integração entre as plataformas de TVDI e Web, aplicada ao middleware do padrão brasileiro, o Ginga.

  • JONATAS PEREIRA CABRAL DE ARAUJO
  • Data: 23/09/2011
  • Hora: 00:00

  • THALLYS PEREIRA DE ALMEIDA
  • Segmentação de Imagens de Enxertos Ósseos Utilizando Watershed e K-Médias
  • Data: 20/09/2011
  • Hora: 10:00
  • Mostrar Resumo
  • A aplicação de enxertos ósseos na recuperação de tecidos ósseos é uma área que vem sendo bastante estudada e está em constante evolução. Nos últimos anos, diversas técnicas de aplicação desses enxertos vêm sendo desenvolvidas. Com isso, surge a necessidade da criação de um método de análise automático, objetivo, imparcial e eficiente de avaliação dos resultados dessas técnicas. Diversas pesquisas utilizando segmentação de imagens vêm sendo realizadas nas mais diversas áreas. Entre elas, podemos citar a área médica, onde as segmentações podem ser aplicadas para delimitar na imagem regiões como tumores, células, glândulas, órgãos, tecidos celulares, entre outros. Diversos métodos de segmentação podem ser desenvolvidos especificamente para delimitar cada um desses elementos. Segmentações dessa natureza eram realizadas tradicionalmente de forma manual, ou então, tentava-se detectar os objetos na imagem de forma meramente visual, sem nenhum dado numérico que pudesse avaliar de forma precisa o tamanho ou as demais propriedades de estudo na imagem. Avaliações desse tipo acabam ficando sujeitas à interpretação de cada pesquisador, podendo trazer resultados imparciais e tendenciosos. Dessa forma, a utilização de um método computacional torna-se essencial para a realização deste tipo de análise. O presente trabalho apresenta um método de avaliação morfométrica para análise da neoformação óssea sobre enxertos ósseos aplicados a cobaias que receberam implantes de biomateriais. A técnica emprega a combinação entre os algoritmos de segmentação k-médias e watershed a fim de realizar uma segmentação baseada na cor representada pelo sistema L*a*b*. Para identificar a região que corresponde à neoformação óssea, foi realizada uma análise através do sistema de cores HSL. Diversos experimentos foram realizados com um grande número de imagens e foram obtidos resultados satisfatórios. O desempenho do método de segmentação sobre imagens de ossos de roedores foi bem avaliado por especialistas, que consideraram o processo eficiente e os resultados compatíveis aos obtidos por especialistas na área.

  • THALLYS PEREIRA DE ALMEIDA
  • Data: 20/09/2011
  • Hora: 00:00

  • ADRIANA ESMERALDO DE OLIVEIRA
  • API DE SEGURANÇA E ARMAZENAMENTO DE UMA ARQUITETURA MULTIBIOMÉTRICA PARA CONTROLE DE ACESSO COM AUTENTICAÇÃO CONTÍNUA
  • Data: 16/09/2011
  • Hora: 09:00
  • Mostrar Resumo
  • Um sistema biométrico que empregue uma única peculiaridade ou traço característico é restrito.
    Esta limitação pode ser suavizada pela fusão dos dados apresentados por múltiplas fontes.
    Um sistema que consolida a evidência apresentada por múltiplas fontes biométricas é
    conhecido como um sistema multibiométrico.
    Nesse contexto, este trabalho propõe a interface de aplicação (API) de segurança e armazenamento
    de uma arquitetura multibiométrica, com habilidade de empregar uma ou mais modalidades
    biométricas.
    Em aplicações de controle de acesso, um usuário pode ser coagido a se autenticar para permitir
    um acesso indevido. Como alternativa para este problema, a API utiliza um processo de
    autenticação contínua, que verifica se o usuário que se identificou no início de uma aplicação
    de software ainda está apto a continuar no sistema, sem interferências humanas ou paralisações
    do processo.
    Grande parte da literatura sobre projeto de sistemas biométricos tem o foco nas taxas de erro
    do sistema e na simplificação de equações. No entanto, também é importante que se tenha
    uma base sólida para progressos futuros no momento em que os processos e a arquitetura da
    nova aplicação biométrica estiverem sendo projetados. Neste sentido, a arquitetura projetada
    permitiu a construção de uma API bem definida para sistemas multibiométricos, que deverá
    auxiliar os desenvolvedores a padronizar, entre outras coisas, sua estrutura de dados, de forma
    a possibilitar e facilitar a fusão de modelos biométricos e a interoperabilidade.
    Deste modo, a API de segurança e armazenamento desenvolvida suporta uma arquitetura
    multibiométrica de controle de acesso para autenticação contínua extensível, isto é, capaz de
    receber novas características e processos biométricos com facilidade, permitindo, ainda, o
    uso de um mecanismo de segurança de templates biométricos.
    A API foi projetada e implementada. Sua demonstração foi feita através de uma aplicação
    protótipo, por meio da qual foi possível realizar os testes.
    Um sistema biométrico que empregue uma única peculiaridade ou traço característico é restrito.Esta limitação pode ser suavizada pela fusão dos dados apresentados por múltiplas fontes.Um sistema que consolida a evidência apresentada por múltiplas fontes biométricas éconhecido como um sistema multibiométrico.Nesse contexto, este trabalho propõe a interface de aplicação (API) de segurança e armazenamentode uma arquitetura multibiométrica, com habilidade de empregar uma ou mais modalidadesbiométricas.Em aplicações de controle de acesso, um usuário pode ser coagido a se autenticar para permitirum acesso indevido. Como alternativa para este problema, a API utiliza um processo deautenticação contínua, que verifica se o usuário que se identificou no início de uma aplicaçãode software ainda está apto a continuar no sistema, sem interferências humanas ou paralisaçõesdo processo.Grande parte da literatura sobre projeto de sistemas biométricos tem o foco nas taxas de errodo sistema e na simplificação de equações. No entanto, também é importante que se tenhauma base sólida para progressos futuros no momento em que os processos e a arquitetura danova aplicação biométrica estiverem sendo projetados. Neste sentido, a arquitetura projetadapermitiu a construção de uma API bem definida para sistemas multibiométricos, que deveráauxiliar os desenvolvedores a padronizar, entre outras coisas, sua estrutura de dados, de formaa possibilitar e facilitar a fusão de modelos biométricos e a interoperabilidade.Deste modo, a API de segurança e armazenamento desenvolvida suporta uma arquiteturamultibiométrica de controle de acesso para autenticação contínua extensível, isto é, capaz dereceber novas características e processos biométricos com facilidade, permitindo, ainda, ouso de um mecanismo de segurança de templates biométricos.A API foi projetada e implementada. Sua demonstração foi feita através de uma aplicaçãoprotótipo, por meio da qual foi possível realizar os testes.

  • ADRIANA ESMERALDO DE OLIVEIRA
  • API DE SEGURANÇA E ARMAZENAMENTO DE UMA ARQUITETURA MULTIBIOMÉTRICA PARA CONTROLE DE ACESSO COM AUTENTICAÇÃO CONTÍNUA
  • Data: 16/09/2011
  • Hora: 09:00
  • Mostrar Resumo
  •  

    Um sistema biométrico que empregue uma única peculiaridade ou traço característico é restrito.
    Esta limitação pode ser suavizada pela fusão dos dados apresentados por múltiplas fontes.
    Um sistema que consolida a evidência apresentada por múltiplas fontes biométricas é
    conhecido como um sistema multibiométrico.
    Nesse contexto, este trabalho propõe a interface de aplicação (API) de segurança e armazenamento
    de uma arquitetura multibiométrica, com habilidade de empregar uma ou mais modalidades
    biométricas.
    Em aplicações de controle de acesso, um usuário pode ser coagido a se autenticar para permitir
    um acesso indevido. Como alternativa para este problema, a API utiliza um processo de
    autenticação contínua, que verifica se o usuário que se identificou no início de uma aplicação
    de software ainda está apto a continuar no sistema, sem interferências humanas ou paralisações
    do processo.
    Grande parte da literatura sobre projeto de sistemas biométricos tem o foco nas taxas de erro
    do sistema e na simplificação de equações. No entanto, também é importante que se tenha
    uma base sólida para progressos futuros no momento em que os processos e a arquitetura da
    nova aplicação biométrica estiverem sendo projetados. Neste sentido, a arquitetura projetada
    permitiu a construção de uma API bem definida para sistemas multibiométricos, que deverá
    auxiliar os desenvolvedores a padronizar, entre outras coisas, sua estrutura de dados, de forma
    a possibilitar e facilitar a fusão de modelos biométricos e a interoperabilidade.
    Deste modo, a API de segurança e armazenamento desenvolvida suporta uma arquitetura
    multibiométrica de controle de acesso para autenticação contínua extensível, isto é, capaz de
    receber novas características e processos biométricos com facilidade, permitindo, ainda, o
    uso de um mecanismo de segurança de templates biométricos.
    A API foi projetada e implementada. Sua demonstração foi feita através de uma aplicação
    protótipo, por meio da qual foi possível realizar os testes.

    Um sistema biométrico que empregue uma única peculiaridade ou traço característico é restrito.Esta limitação pode ser suavizada pela fusão dos dados apresentados por múltiplas fontes.Um sistema que consolida a evidência apresentada por múltiplas fontes biométricas éconhecido como um sistema multibiométrico.Nesse contexto, este trabalho propõe a interface de aplicação (API) de segurança e armazenamentode uma arquitetura multibiométrica, com habilidade de empregar uma ou mais modalidadesbiométricas.Em aplicações de controle de acesso, um usuário pode ser coagido a se autenticar para permitirum acesso indevido. Como alternativa para este problema, a API utiliza um processo deautenticação contínua, que verifica se o usuário que se identificou no início de uma aplicaçãode software ainda está apto a continuar no sistema, sem interferências humanas ou paralisaçõesdo processo.Grande parte da literatura sobre projeto de sistemas biométricos tem o foco nas taxas de errodo sistema e na simplificação de equações. No entanto, também é importante que se tenhauma base sólida para progressos futuros no momento em que os processos e a arquitetura danova aplicação biométrica estiverem sendo projetados. Neste sentido, a arquitetura projetadapermitiu a construção de uma API bem definida para sistemas multibiométricos, que deveráauxiliar os desenvolvedores a padronizar, entre outras coisas, sua estrutura de dados, de formaa possibilitar e facilitar a fusão de modelos biométricos e a interoperabilidade.Deste modo, a API de segurança e armazenamento desenvolvida suporta uma arquiteturamultibiométrica de controle de acesso para autenticação contínua extensível, isto é, capaz dereceber novas características e processos biométricos com facilidade, permitindo, ainda, ouso de um mecanismo de segurança de templates biométricos.A API foi projetada e implementada. Sua demonstração foi feita através de uma aplicaçãoprotótipo, por meio da qual foi possível realizar os testes.

     

  • ADRIANA ESMERALDO DE OLIVEIRA
  • Data: 16/09/2011
  • Hora: 00:00

  • RICARDO MENDES COSTA SEGUNDO
  • Athus: um framework para o desenvolvimento de jogos para TV Digital utilizando Ginga
  • Data: 09/09/2011
  • Hora: 10:00
  • Mostrar Resumo
  • RESUMO

    O Ginga, middleware do Sistema Brasileiro de TV Digital, tem ganhado importância internacional, sendo adotado por diversos países da América do Sul e ao se tornar recomendação ITU para IPTV. Com isso, o sinal digital, irá ser recebido por mais televisores, levando vídeo de alta definição e áudio de alta qualidade aos telespectadores, como também a possibilidade de interagir com as aplicações televisivas. As possibilidades de interatividade destas aplicações são inúmeras: enquetes, acompanhamento de estatísticas em eventos esportivos, informações adicionais e complementares sobre novelas e seriados, entre outras. Dentre estas aplicações, um tipo que poderá tomar espaço são os jogos, os quais vêm ganhando destaque no mercado mundial em diversas plataformas. Eles possuem um caráter de entretenimento e desafio, variando de jogos simples, acessíveis a todos, a jogos mais complexos voltados a jogadores experientes. Criar uma ferramenta que auxilie no desenvolvimento de jogos para o Ginga se torna um passo importante para facilitar a produção de jogos que possam atingir milhões de pessoas não só no Brasil, mas em todos os países que adotarem o padrão brasileiro. Assim sendo, este trabalho apresenta o Athus, um framework de desenvolvimento de jogos voltado para a Televisão Digital. Para isto foi feito um estudo sobre os diversos aspectos dos jogos, tais como a indústria, formas de produção e categorias; e também, uma pesquisa acerca da produção dos jogos para a TV Digital no Brasil e no mundo. No decorrer do trabalho é mostrado como os jogos poderão ser utilizados sobre a plataforma Ginga, a construção e uso do framework e os resultados obtidos com sua utilização (jogos desenvolvidos e testes realizados com programadores).

  • ANDRE FELIPE PALMEIRA
  • Orientador : TATIANA AIRES TAVARES
  • Data: 09/09/2011
  • Hora: 00:00

  • DIEGO SANTOS DE ANDRADE PIZZOL
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 09/09/2011
  • Hora: 00:00

  • RICARDO MENDES COSTA SEGUNDO
  • Data: 09/09/2011
  • Hora: 00:00

  • FABIANA FERREIRA DO NASCIMENTO
  • Orientador : ED PORTO BEZERRA
  • Data: 22/08/2011
  • Hora: 00:00

  • THIAGO PEREIRA RIQUE
  • Orientador : ALVARO FRANCISCO DE CASTRO MEDEIROS
  • Data: 29/04/2011
  • Hora: 00:00

  • HERBET FERREIRA RODRIGUES
  • Orientador : LILIANE DOS SANTOS MACHADO
  • Data: 23/03/2011
  • Hora: 00:00

  • TALLES BRITO VIANA
  • Uma Técnica de Indexação de Dados Semi-Estruturados para o Processamento Eficiente de Consultas com Ramificação
  • Data: 18/03/2011
  • Hora: 16:00
  • Mostrar Resumo
  • O surgimento de sistemas baseados na Web tem gerado uma vasta quantidade de fontes de
    documentos semi-estruturados, os quais necessitam ser indexados por sistemas de busca a fim
    de possibilitar a descoberta de documentos de acordo com necessidades de informação do
    usuário. Entretanto, um dos maiores desafios no desenvolvimento de técnicas de indexação
    para documentos semi-estruturados diz respeito a como indexar não somente o conteúdo
    textual, mas também a informação estrutural dos documentos. O principal problema está em
    prover suporte para consultas com ramificação sem introduzir fatores que causem perda de
    precisão aos resultados de pesquisa, bem como, o crescimento indesejado do tempo de
    processamento de consultas e dos tamanhos de índice. Várias técnicas de indexação para
    dados semi-estruturados são encontradas na literatura. Apesar das relevantes contribuições, as
    propostas existentes sofrem com problemas relacionados à perda de precisão, requisitos de
    armazenamento ou custos de processamento de consultas. Neste contexto, nesta dissertação é
    proposta uma técnica de indexação (denominada BranchGuide) para dados semi-estruturados
    que suporta uma bem definida classe de consultas com ramificação sem perda de precisão.
    Esta classe compreende caminhos com ramificação que permitem expressar dependências paifilho
    entre elementos nos quais podem ser impostas restrições sob os valores de atributos de
    tais elementos. Como evidenciado experimentalmente, a adoção da técnica BranchGuide gera
    excelentes tempos de processamento de consulta e tamanhos de índice menores do que os
    gerados por uma técnica de interseção estrutural.
    O surgimento de sistemas baseados na Web tem gerado uma vasta quantidade de fontes dedocumentos semi-estruturados, os quais necessitam ser indexados por sistemas de busca a fimde possibilitar a descoberta de documentos de acordo com necessidades de informação dousuário. Entretanto, um dos maiores desafios no desenvolvimento de técnicas de indexaçãopara documentos semi-estruturados diz respeito a como indexar não somente o conteúdotextual, mas também a informação estrutural dos documentos. O principal problema está emprover suporte para consultas com ramificação sem introduzir fatores que causem perda deprecisão aos resultados de pesquisa, bem como, o crescimento indesejado do tempo deprocessamento de consultas e dos tamanhos de índice. Várias técnicas de indexação paradados semi-estruturados são encontradas na literatura. Apesar das relevantes contribuições, aspropostas existentes sofrem com problemas relacionados à perda de precisão, requisitos dearmazenamento ou custos de processamento de consultas. Neste contexto, nesta dissertação éproposta uma técnica de indexação (denominada BranchGuide) para dados semi-estruturadosque suporta uma bem definida classe de consultas com ramificação sem perda de precisão.Esta classe compreende caminhos com ramificação que permitem expressar dependências paifilhoentre elementos nos quais podem ser impostas restrições sob os valores de atributos detais elementos. Como evidenciado experimentalmente, a adoção da técnica BranchGuide geraexcelentes tempos de processamento de consulta e tamanhos de índice menores do que osgerados por uma técnica de interseção estrutural.

  • TALLES BRITO VIANA
  • Data: 18/03/2011
  • Hora: 00:00

  • AMILCAR SOARES JUNIOR
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 04/03/2011
  • Hora: 00:00

  • AMILCAR SOARES JUNIOR
  • Data: 04/03/2011
  • Hora: 00:00

  • RODRIGO DA CRUZ FUJIOKA
  • SCOLLAB CORE: A PROPOSTA DE UM FRAMEWORK PARA CONSTRUÇÃO DE APLICAÇÕES SOCIAIS
  • Data: 28/02/2011
  • Hora: 10:00
  • Mostrar Resumo
  • PROPOSTA DE UM FRAMEWORK PARA CONSTRUÇÃO DE APLICAÇÕES SOCIAIS

  • NILTON HIDEKI TAKAGI
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 28/02/2011
  • Hora: 00:00

  • RODRIGO DA CRUZ FUJIOKA
  • Data: 28/02/2011
  • Hora: 00:00

  • THAIS ALVES BURITY PEREIRA
  • Orientador : GLEDSON ELIAS DA SILVEIRA
  • Data: 28/02/2011
  • Hora: 00:00

  • WALBER JOSE ADRIANO SILVA
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 08/02/2011
  • Hora: 00:00

  • EDUARDO PAZ SERAFIM
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 07/02/2011
  • Hora: 00:00

  • RODRIGO CARTAXO MARQUES DUARTE
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 07/02/2011
  • Hora: 00:00

2010
Descrição
  • HUMBERTO RABELO
  • Desenvolvimento de uma Estratégia para Obtenção do Perfil Intelectual do Educando Baseada na Teoria das Inteligências Múltiplas para o EDULIVRE
  • Data: 20/12/2010
  • Hora: 09:00
  • Mostrar Resumo
  • Este trabalho descreve o Ambiente Virtual de Aprendizagem (AVA) desenvolvido para o Projeto Tecnologias Educacionais Criativas Livres (EDULIVRE), trabalho que vem sendo realizado por pesquisadores das Areas de Informatica e de Educacao, no Laboratorio de Aplicacoes de Video Digital (LAVID), da Universidade Federal da Paraiba. Uma estrategia e apresentada e implementada na forma de funcionalidade, que possibilita sem o preenchimento de questionarios, mas de forma totalmente transparente e implicita ao usuario, que seja possivel durante a utilizacao do ambiente, identificar e extrair perfis individuais intelectuais do educando, pautado na teoria das inteligencias multiplas proposta por Howard Gardner.
  • FELIPE SOARES DE OLIVEIRA
  • Orientador : GUIDO LEMOS DE SOUZA FILHO
  • Data: 20/12/2010
  • Hora: 00:00

  • HUMBERTO RABELO
  • Data: 20/12/2010
  • Hora: 00:00

  • ERICK AUGUSTO GOMES DE MELO
  • Data: 05/11/2010
  • Hora: 00:00

  • TATIANE CRUZ DE SOUZA HONORIO
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 31/08/2010
  • Hora: 00:00

  • ELTON DA NOBREGA MASCENA
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 30/08/2010
  • Hora: 00:00

  • MARCELO FERNANDES DE SOUSA
  • Orientador : ED PORTO BEZERRA
  • Data: 30/08/2010
  • Hora: 00:00

  • ALYSSON DINIZ DOS SANTOS
  • Orientador : RONEI MARCOS DE MORAES
  • Data: 27/08/2010
  • Hora: 00:00

  • CAIO REGIS CAROCA
  • Orientador : TATIANA AIRES TAVARES
  • Data: 27/08/2010
  • Hora: 00:00

  • LAMARK DOS SANTOS RIBEIRO
  • Orientador : VALERIA GONCALVES SOARES
  • Data: 27/08/2010
  • Hora: 00:00

  • YURI MORAIS BEZERRA
  • Orientador : GLEDSON ELIAS DA SILVEIRA
  • Data: 16/08/2010
  • Hora: 00:00

  • KLEBBER DE ARAUJO PEDROSA
  • Orientador : VALERIA GONCALVES SOARES
  • Data: 10/08/2010
  • Hora: 00:00

  • RAFAEL ROSSI DE MELLO BRANDAO
  • LUATV: UMA API PARA EXTENSÃO DE APLICAÇÕES NO AMBIENTE GINGA-NCL
  • Data: 03/08/2010
  • Hora: 10:00
  • Mostrar Resumo
  •  

    O ambiente Ginga-NCL é responsável pela apresentação de aplicações declarativas (escritas na linguagem NCL) no Sistema Brasileiro de Televisão Digital (SBTVD), e é também a Recomendação ITU-T H.761 para middlewares IPTV. A linguagem Lua é utilizada como linguagem de scripting da NCL. A série de recomendações ITU-T H.760 define também dois conjuntos de API NCLua para o desenvolvimento de aplicações IPTV: as APIs Core e Extended. A API Core compreende a API NCLua básica, parte integrante da especificação original do ambiente Ginga-NCL no SBTVD. A API Extended tem como objetivo prover outras funcionalidades relevantes incorporando algumas das facilidades encontradas em ambientes imperativos. Este trabalho visa especificar um conjunto de APIs Lua denominado LuaTV, que será parte da especificação inicial para a API NCLua Extended.
    As facilidades da API são dividas em quatro pacotes funcionais: metadata, com funcionalidades relacionadas ao acesso de metadados presentes em um fluxo de TV Digital; security, que provê mecanismos para encriptação, autenticação e integridade de dados; multidevices, oferecendo acesso em alto-nível a recursos comumente presentes em dispositivos remotos; e widget, que tem como objetivo oferecer suporte ao desenvolvimento de componentes gráficos.

    O ambiente Ginga-NCL é responsável pela apresentação de aplicações declarativas (escritas na linguagem NCL) no Sistema Brasileiro de Televisão Digital (SBTVD), e é também a Recomendação ITU-T H.761 para middlewares IPTV. A linguagem Lua é utilizada como linguagem de scripting da NCL. A série de recomendações ITU-T H.760 define também dois conjuntos de API NCLua para o desenvolvimento de aplicações IPTV: as APIs Core e Extended. A API Core compreende a API NCLua básica, parte integrante da especificação original do ambiente Ginga-NCL no SBTVD. A API Extended tem como objetivo prover outras funcionalidades relevantes incorporando algumas das facilidades encontradas em ambientes imperativos. Este trabalho visa especificar um conjunto de APIs Lua denominado LuaTV, que será parte da especificação inicial para a API NCLua Extended.As facilidades da API são dividas em quatro pacotes funcionais: metadata, com funcionalidades relacionadas ao acesso de metadados presentes em um fluxo de TV Digital; security, que provê mecanismos para encriptação, autenticação e integridade de dados; multidevices, oferecendo acesso em alto-nível a recursos comumente presentes em dispositivos remotos; e widget, que tem como objetivo oferecer suporte ao desenvolvimento de componentes gráficos.

  • CLAUDIA ROSSANA CUNHA
  • Metaheurística Híbrida GRASP e Busca Tabu Aplicada ao Problema de Escalonamento de Tarefas
  • Data: 16/07/2010
  • Hora: 16:00
  • Mostrar Resumo
  • Este trabalho aborda o problema de escalonamento de tarefas (Job Shop Scheduling) através da combinação das metaheurísticas GRASP e Busca Tabu. O estudo consiste em utilizar o GRASP na fase de construção da solução inicial, sugerindo, para tanto, um procedimento específico baseado no algoritmo de Coffman Gramah. Tal procedimento foi o grande diferencial deste trabalho, visto que oferece uma solução inicial qualitativamente superior, permitindo a redução do tempo de busca local, onde foi utilizada a metaheurística Busca Tabu, a qual demonstrou proporcionar melhores resultados, comparando-se com outras metaheurísticas que seguem a mesma base estrutural. A combinação GRASP e Busca Tabu foi avaliada sob duas implementações diferenciadas, sendo uma com a Busca Tabu em sua forma mais simplificada e outra com a Busca Tabu desenvolvendo um processo de busca otimizada — com o auxílio de um modelo matemático —, a qual demonstrou grandes progressos quanto ao tempo de processamento e a obtenção de resultados. Os resultados computacionais obtidos, quando comparados com os existentes na literatura, mostraram que a combinação GRASP e Busca Tabu é capaz de produzir boas soluções.

    .

  • CLAUDIA ROSSANA CUNHA
  • Data: 16/07/2010
  • Hora: 00:00

  • BRUNO RAFAEL DE ARAUJO SALES
  • Orientador : LILIANE DOS SANTOS MACHADO
  • Data: 12/07/2010
  • Hora: 00:00

  • DANIEL FAUSTINO LACERDA DE SOUZA
  • Orientador : TATIANA AIRES TAVARES
  • Data: 05/07/2010
  • Hora: 00:00

  • FERNANDA PAULINELLI RODRIGUES SILVA
  • Orientador : TATIANA AIRES TAVARES
  • Data: 05/07/2010
  • Hora: 00:00

  • JOSE RAPHAEL TEIXEIRA MARQUES
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 30/04/2010
  • Hora: 00:00

  • DANIEL CHARLES FERREIRA PORTO
  • Orientador : GLEDSON ELIAS DA SILVEIRA
  • Data: 26/03/2010
  • Hora: 00:00

  • TIAGO DIAS CARVALHO DO NASCIMENTO
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 26/03/2010
  • Hora: 00:00

  • GUSTAVO REZENDE CARVALHO
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 05/03/2010
  • Hora: 00:00

  • JERRY LEE ALVES DOS SANTOS
  • Orientador : JOSE ANTONIO GOMES DE LIMA
  • Data: 05/03/2010
  • Hora: 00:00

  • LEONARDO MEDEIROS
  • Orientador : ANTONIO CARLOS CAVALCANTI
  • Data: 04/03/2010
  • Hora: 00:00

  • THYAGO MAIA TAVARES DE FARIAS
  • Orientador : JOSE ANTONIO GOMES DE LIMA
  • Data: 04/03/2010
  • Hora: 00:00

  • FRANCISCO DANTAS NOBRE NETO
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 19/01/2010
  • Hora: 00:00

2009
Descrição
  • JOSE TEIXEIRA DE CARVALHO NETO
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 14/12/2009
  • Hora: 00:00

  • THIAGO GOUVEIA DA SILVA
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 28/08/2009
  • Hora: 00:00

  • DERZU OMAIA
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 27/08/2009
  • Hora: 00:00

  • FERNANDO AUGUSTO FERREIRA LORDAO
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 27/08/2009
  • Hora: 00:00

  • ANDRE LIRA ROLIM
  • Orientador : ED PORTO BEZERRA
  • Data: 13/08/2009
  • Hora: 00:00

  • JOSE RITOMAR CARNEIRO TORQUATO
  • Orientador : ED PORTO BEZERRA
  • Data: 13/08/2009
  • Hora: 00:00

  • ROBERTA BRITO NUNES DINIZ
  • Orientador : VALERIA GONCALVES SOARES
  • Data: 26/06/2009
  • Hora: 00:00

  • ROBERTA MACEDO MARQUES GOUVEIA
  • Orientador : VALERIA GONCALVES SOARES
  • Data: 29/05/2009
  • Hora: 00:00

  • THIAGO CURVELO DOS ANJOS
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 03/04/2009
  • Hora: 00:00

  • EUDISLEY GOMES DOS ANJOS
  • Orientador : JOSE ANTONIO GOMES DE LIMA
  • Data: 27/03/2009
  • Hora: 00:00

  • REGINALDO TAVARES VIRGINIO FILHO
  • Orientador : LILIANE DOS SANTOS MACHADO
  • Data: 20/02/2009
  • Hora: 00:00

  • GEDVAN PEREIRA DIAS
  • Orientador : RONEI MARCOS DE MORAES
  • Data: 18/02/2009
  • Hora: 00:00

  • TIAGO MARITAN UGULINO DE ARAUJO
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 06/02/2009
  • Hora: 00:00

2008
Descrição
  • BRUNO CESAR BARRETO DE FIGUEIREDO
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 12/09/2008
  • Hora: 00:00

  • THAISE KELLY DE LIMA COSTA
  • Orientador : LILIANE DOS SANTOS MACHADO
  • Data: 05/09/2008
  • Hora: 00:00

  • JOAO PAULO FREITAS DE OLIVEIRA
  • Orientador : GLEDSON ELIAS DA SILVEIRA
  • Data: 01/09/2008
  • Hora: 00:00

  • MATEUS NOVAES SANTOS
  • Orientador : GLEDSON ELIAS DA SILVEIRA
  • Data: 01/09/2008
  • Hora: 00:00

  • MARCO A V M DE VASCONCELOS
  • Data: 22/08/2008
  • Hora: 00:00

  • CARLOS ALBERTO NUNES MACHADO
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 14/08/2008
  • Hora: 00:00

  • LUDMILA DE ALMEIDA PEDROSA
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 13/08/2008
  • Hora: 00:00

  • SINDOLFO LUIZ DE MIRANDA F FILHO
  • Orientador : GUIDO LEMOS DE SOUZA FILHO
  • Data: 12/08/2008
  • Hora: 00:00

  • LINCOLN DAVID NERY E SILVA
  • Uma Proposta de API para Desenvolvimento de Aplicações Multiusuário e Multidispositivo para TV Digital Utilizando o Middleware Ginga.
  • Data: 08/08/2008
  • Hora: 10:00
  • Mostrar Resumo
  • O avanço das aplicações de TV Digital Interativa não ocorre na mesma velocidade que as aplicações para WEB ou Desktop. Tal fato se deve tanto por limitações encontradas no hardware e no middleware no qual as aplicações são executadas, quanto pela limitação do dispositivo usado na interação dos usuários com a TV. No panorama nacional, a especificação do middleware Ginga permite a incorporação de novas funcionalidades através da API de Integração de Dispositivos, alvo desse trabalho. Esta API que permite que aplicações de TVDI usem dispositivos móveis tanto como meio de interação, como para compartilhamento de seus recursos multimídia. Como resultado do uso da API proposta, as aplicações de TVDI passam a contar com novas possibilidades até então não disponíveis nos middlewares de TV Digital existentes; como a utilização de mais de um dispositivo simultaneamente, o suporte ao desenvolvimento de aplicações multiusuário e o acesso a recursos de captura de mídias contínuas disponíveis em aparelhos como celulares, que podem ser integrados aos aparelhos de TV. A API resultante desse trabalho foi implementada e utilizada no desenvolvimento de aplicações para TVDI voltadas a explorar os novos recursos avançados disponíveis.
  • LINCOLN DAVID NERY E SILVA
  • Data: 08/08/2008
  • Hora: 00:00

  • CARLOS EDUARDO SILVEIRA DIAS
  • Orientador : GUIDO LEMOS DE SOUZA FILHO
  • Data: 01/08/2008
  • Hora: 00:00

  • FABRIZIA MEDEIROS DE SOUSA MATOS
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 09/07/2008
  • Hora: 00:00

  • PAULO CESAR DE HOLANDA FURTADO
  • Orientador : RONEI MARCOS DE MORAES
  • Data: 27/06/2008
  • Hora: 00:00

  • MARIA DAS GRACAS COSTA NERY DA SILVA
  • Orientador : ED PORTO BEZERRA
  • Data: 19/06/2008
  • Hora: 00:00

  • BRUNO JEFFERSON DE SOUSA PESSOA
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 21/05/2008
  • Hora: 00:00

  • JEFFERSON FERREIRA DE ARAUJO LIMA
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 21/05/2008
  • Hora: 00:00

  • ANDRE RICARDO CIRAULO DE SOUZA
  • Orientador : JOSE ANTONIO GOMES DE LIMA
  • Data: 02/04/2008
  • Hora: 00:00

  • MOAB MARIZ MEIRA
  • Classificação de Texturas usando o Algoritmo Lempel- Ziv-Welch
  • Data: 29/02/2008
  • Hora: 15:00
  • Mostrar Resumo
  • Este trabalho apresenta um novo e eficiente método de classificação de
    texturas usando o algoritmo de compressão sem perdas Lempel-Ziv-Welch (LZW).
    Na fase de aprendizagem, o LZW constrói dicionários para as estruturas horizontal
    e vertical de cada classe de textura. Na fase de classificação, amostras de texturas
    são codificadas com o LZW no modo estático, usando os dicionários construídos
    na fase anterior. Uma amostra é associada à classe cujo dicionário conduz à
    melhor taxa de codificação. O classificador foi avaliado para vários tamanhos do
    conjunto de treinamento e das amostras de treinamento, e sob diferentes condições
    de iluminação das texturas. O método proposto atinge 100% de acerto em alguns
    experimentos usando amostras de texturas do álbum Brodatz. Comparações diretas
    com outros trabalhos indicam a superioridade do método sobre outros métodos
    de alto desempenho.
    Este trabalho apresenta um novo e eficiente método de classificação detexturas usando o algoritmo de compressão sem perdas Lempel-Ziv-Welch (LZW).Na fase de aprendizagem, o LZW constrói dicionários para as estruturas horizontale vertical de cada classe de textura. Na fase de classificação, amostras de texturassão codificadas com o LZW no modo estático, usando os dicionários construídosna fase anterior. Uma amostra é associada à classe cujo dicionário conduz àmelhor taxa de codificação. O classificador foi avaliado para vários tamanhos doconjunto de treinamento e das amostras de treinamento, e sob diferentes condiçõesde iluminação das texturas. O método proposto atinge 100% de acerto em algunsexperimentos usando amostras de texturas do álbum Brodatz. Comparações diretascom outros trabalhos indicam a superioridade do método sobre outros métodosde alto desempenho.

  • CARLOS EDUARDO COELHO FREIRE BATISTA
  • TVGRID - Computação em Grid em Rede de TV Digital
  • Data: 29/02/2008
  • Hora: 10:00
  • Mostrar Resumo
  • TVGRID - Computação em Grid em Rede de TV Digital

  • ANDRE MARINHO ARAUJO
  • Orientador : ANTONIO CARLOS CAVALCANTI
  • Data: 29/02/2008
  • Hora: 00:00

  • CARLOS EDUARDO COELHO FREIRE BATISTA
  • Data: 29/02/2008
  • Hora: 00:00

  • CHRISTHINY FERNANDA MASIERO SANSON
  • Orientador : ANTONIO CARLOS CAVALCANTI
  • Data: 29/02/2008
  • Hora: 00:00

  • FRANCISCO DAS CHAGAS ROCHA
  • Orientador : ED PORTO BEZERRA
  • Data: 29/02/2008
  • Hora: 00:00

  • MOAB MARIZ MEIRA
  • Data: 29/02/2008
  • Hora: 00:00

  • EDNALDO MARIANO VASCONCELOS DE LIMA
  • Orientador : ANTONIO CARLOS CAVALCANTI
  • Data: 28/02/2008
  • Hora: 00:00

  • GILBERTO FARIAS DE SOUSA FILHO
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 28/02/2008
  • Hora: 00:00

2007
Descrição
  • TIAGO LIMA SALMITO
  • DISCO VIRTUAL NACIONAL - Uma ferramenta de armazenamento distribuído de dados
  • Data: 30/05/2007
  • Hora: 10:00
  • Mostrar Resumo
  •  

    Serviços de telerradiologia têm se tornado populares, principalmente por seu
    potencial de redução de custos, ao tempo em que elevam a agilidade e a qualidade na
    prestação dos serviços de saúde em áreas geográficas de difícil acesso. Contudo, este
    potencial traz desafios elevados: o grande volume de dados, característico dos
    exames de imagens, e os requisitos de segurança que visam garantir a sua
    confidencialidade e integridade. Além disso, questões éticas envolvem o modelo
    dominante no mercado, em que este serviço é prestado por empresas terceirizadas, e
    não diretamente pelos profissionais radiologistas. Assim, este trabalho propõe um
    modelo distribuído e cooperativo, através do qual os profissionais de saúde podem
    interagir diretamente com os hospitais que prestam os cuidados ao paciente. Focouse,
    ainda, em suprir as principais deficiências presentes em soluções consagradas,
    mais precisamente no que diz respeito aos requisitos de segurança, de comunicação
    assíncrona, ponto-a-ponto e da viabilidade tecnológica e financeira. Uma abordagem
    investigativa sobre os mecanismos utilizados nas principais soluções foi realizada, de
    maneira a se obter uma base sobre a qual se firmou a solução final. O uso do modelo
    de Cloud Computing, aliado a uma arquitetura RESTful WebServices, proveram a
    base inicial na qual operam, de forma integrada, tecnologias, paradigmas e padrões,
    a exemplo de modelos de interconexão Peer-to-Peer, Redes Virtuais Privadas
    (VPNs), Traversal Address Network Translation (Traversal NAT), Dynamic DNS,
    protocolo para Comunicação de Imagens Digitais em Medicina (DICOM), boas
    práticas de criptografia, além de outros padrões de segurança e de
    interoperabilidade. Um protótipo foi desenvolvido e está em fase de testes e
    avaliação por médicos radiologistas situados em cidades no interior dos estados do
    Ceará, Pernambuco e Paraíba, e segue evoluindo de forma incremental. O protótipo
    tem permitido aos médicos radiologistas emitirem laudos, diariamente, de exames
    de tomografia computadorizada, os quais, outrora, levavam cerca de 7 dias até que
    um especialista pudesse deslocar-se até a cidade para produzi-lo.

    Serviços de telerradiologia têm se tornado populares, principalmente por seupotencial de redução de custos, ao tempo em que elevam a agilidade e a qualidade naprestação dos serviços de saúde em áreas geográficas de difícil acesso. Contudo, estepotencial traz desafios elevados: o grande volume de dados, característico dosexames de imagens, e os requisitos de segurança que visam garantir a suaconfidencialidade e integridade. Além disso, questões éticas envolvem o modelodominante no mercado, em que este serviço é prestado por empresas terceirizadas, enão diretamente pelos profissionais radiologistas. Assim, este trabalho propõe ummodelo distribuído e cooperativo, através do qual os profissionais de saúde podeminteragir diretamente com os hospitais que prestam os cuidados ao paciente. Focouse,ainda, em suprir as principais deficiências presentes em soluções consagradas,mais precisamente no que diz respeito aos requisitos de segurança, de comunicaçãoassíncrona, ponto-a-ponto e da viabilidade tecnológica e financeira. Uma abordageminvestigativa sobre os mecanismos utilizados nas principais soluções foi realizada, demaneira a se obter uma base sobre a qual se firmou a solução final. O uso do modelode Cloud Computing, aliado a uma arquitetura RESTful WebServices, proveram abase inicial na qual operam, de forma integrada, tecnologias, paradigmas e padrões,a exemplo de modelos de interconexão Peer-to-Peer, Redes Virtuais Privadas(VPNs), Traversal Address Network Translation (Traversal NAT), Dynamic DNS,protocolo para Comunicação de Imagens Digitais em Medicina (DICOM), boaspráticas de criptografia, além de outros padrões de segurança e deinteroperabilidade. Um protótipo foi desenvolvido e está em fase de testes eavaliação por médicos radiologistas situados em cidades no interior dos estados doCeará, Pernambuco e Paraíba, e segue evoluindo de forma incremental. O protótipotem permitido aos médicos radiologistas emitirem laudos, diariamente, de examesde tomografia computadorizada, os quais, outrora, levavam cerca de 7 dias até queum especialista pudesse deslocar-se até a cidade para produzi-lo.

     

2006
Descrição
  • RICARDO HENRIQUE CORREIA ATANASIO
  • Orientador : ED PORTO BEZERRA
  • Data: 21/12/2006
  • Hora: 00:00

  • Zenon Farias Braga Filho
  • Orientador : ALVARO FRANCISCO DE CASTRO MEDEIROS
  • Data: 19/12/2006
  • Hora: 00:00

  • DANIEL NUNES LIRA BARBOSA
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 18/12/2006
  • Hora: 00:00

  • RODRIGO GALVAO LOURENCO DA SILVA
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 13/12/2006
  • Hora: 00:00

  • WILLIAMS FERREIRA DA SILVA
  • Orientador : ANTONIO CARLOS CAVALCANTI
  • Data: 17/11/2006
  • Hora: 00:00