-
ANDERSON MORAIS DE SOUZA
-
Caos Booleano: Em busca de Sincronização
-
Data: 16/12/2021
-
Hora: 09:00
-
Mostrar Resumo
-
O estudo dos sistemas dinâmicos possibilita a descrição de características e de comportamento de uma infinidade de fenômenos, em particular o estudo dos sistemas dinâmicos não lineares, que vêm se destacando no cenário da modelagem matemática por apresentar um comportamento, rico em informações dinâmicas e com várias particularidades próprias e universais. É neste contexto que este trabalho emprega ferramentas matemáticas e computacionais embasadas em conceitos da análise dos sistemas não lineares que são aplicadas no estudo do sistema de Lorenz. Fundamentado na análise dos planos de fases, espaços de fases, simulações numéricas e nos comportamentos que tal sistema apresenta é que analisaremos o comportamento caótico das Redes Booleanas Autônomas, onde a dinâmica da rede será determinada pelo histórico dos eventos de comutação, das interações anteriores e dos atrasos ao longo dos links, bem como, o estudo do comportamento não ideal das portas lógicas, a rejeição dos pulsos curtos e a análise do efeito de memória denominado de "degradação" apresentam um papel fundamental na compreensão da dinâmica e do caos apresentado pela rede em comento. Portanto, o conhecimento dos fatores que podem gerar o comportamento caótico em Redes Booleanas Autônomas com atrasos de tempo, permitirá o estudo da sincronização entre Redes Booleanas Autônomas.
|
-
RAFAELA SOUZA MORAIS
-
Explorando o espaço de parâmetros do método semiempírico RM1 pela utilização de otimização não-linear
-
Data: 15/12/2021
-
Hora: 15:00
-
Mostrar Resumo
-
A modelagem molecular permite calcular propriedades dos compostos moleculares, sendo utilizada principalmente na descoberta de novos fármacos ou na melhoria de protótipos existentes. Há várias abordagens para gerar esses modelos, sendo os métodos ab initio os mais confiáveis, porém são extremamente lentos computacionalmente. Como alternativa, foram propostos métodos semiempíricos, que utilizam aproximações para obter um resultado muito mais eficiente computacionalmente, porém com uma acurácia que varia muito, dependendo da abordagem e dos parâmetros escolhidos ou ajustados. Um desses métodos é o RM1 (Recife Model 1), criado em 2006 como uma reparametrização do AM1 (Austin Model 1), o qual foi criado em 1985 e foi muito bem-sucedido. O RM1 obteve bons resultados, mas é importante avaliar se a parametrização escolhida foi a melhor possível. Neste trabalho, o espaço de parâmetros para o método RM1 foi explorado, utilizando uma variação do algoritmo de otimização não-linear DFP a partir de diferentes pontos, avaliando se é possível oferecer uma melhoria substancial em sua exatidão unicamente com uma reparametrização, ou se é necessário modificar a estrutura do método para que esse objetivo seja alcançado. Os pontos de partida foram parametrizações encontradas por um trabalho anterior, utilizando algoritmos genéticos, que ofereceram resultados ligeiramente melhores do que o RM1. A otimização deste trabalho não encontrou pontos melhores do que o algoritmo genético, talvez porque a função custo utilizada na minimização não estivesse adequada. Para melhorar os resultados, seria necessário adequar a função custo, o que é possível com um procedimento apresentado como sugestão para um trabalho futuro.
|
-
EMERSON CHARLES DO NASCIMENTO MARREIROS
-
CÁLCULO COMPUTACIONAL DA FRONTEIRA DO DIAGRAMA DE VORONOI NO PLANO COM DOIS SITIOS E UM OBSTÁCULO CIRCULAR.
-
Data: 10/12/2021
-
Hora: 09:00
-
Mostrar Resumo
-
O objetivo do trabalho é de calcular numericamente a fronteira do diagrama de voronoi para dois pontos geradores sobre o eixo y e o centro do obstáculo circular sobre o eixo x. tarefa é de construir uma estrutura de grafo para resolver o problema de ponto conjunto quando o conjunto é a região de pontos do plano que estão mais próximos de um dos sitios.
|
-
JHONATAN BRUNNO FERREIRA DA SILVA LINO
-
Métodos de otimização de redes de distribuição de água
-
Data: 29/10/2021
-
Hora: 10:00
-
Mostrar Resumo
-
Este trabalho tem por objetivo apresentar um modelo computacional para a otimização em redes de distribuição de água, para minimizar seu custo. O modelo será desenvolvido em linguagem Python através do pacote scipy.optimize com a rotina minimize. A rede será criada através do programa Epanet. Além do mais, serão obtidos os resultados apresentados pelo Lenhsnet (módulo de otimização de redes do programa Epanet). Serão realizadas simulações no modelo variando o método de otimização utilizado, verificando-se qual deles apresenta melhores resultados em relação à convergência e ao tempo de processamento.
|
-
MELQUISEDEC ANSELMO DA COSTA AZEVÊDO
-
PREVISÃO E ANÁLISE DO ICMS DA PARAÍBA
-
Data: 29/07/2021
-
Hora: 13:00
-
Mostrar Resumo
-
A busca por antecipar os fatos é bastante comum ao longo dos tempos, considerando algo como provável com base em indícios, sejam eles científicos ou por crenças
populares. No âmbito econômico as previsões são necessárias para que se possa planejar as ações com antecedência e concluir sobre as principais intervenções e suas
prováveis consequências, pois se o orçamento for superestimado, acarretará em gastos acima do previsto o que poderá gerar um déficit ou contingenciamento, que é a
redução temporária das despesas para atingir a meta fiscal e se os recursos forem
subestimado, o que pode dificultar realizações ações de urgência, e/ou de extrema
importância. Desta forma a presente dissertação apresenta uma metodologia de
modelagem, previsão e análise das arrecadações do Imposto sobre Operações Relativas à Circulação de Mercadorias e sobre Prestações de Serviços de Transporte
Interestadual e Intermunicipal e de Comunicação do Estado da Paraíba (ICMS-PB),
por representar mais de 80% da receita tributária do Estado. Foram coletados dados de janeiro de 1997 a abril de 2021, que é truncada em datas distintas gerando
quatro séries para verificar se a dinâmica da série varia. Assim é utilizando, para
as quatro série, os algoritmos de alisamento exponencial Holt-Winters com sazonalidade aditiva e multiplicativa, e modelos Box-Jenkins com os modelos sazonais
auto-regressivos integrados de médias móveis (SARIMA) e o SARIMAX com a variável dummy referente a pandemia do COVID-19, a tendência e a sazonalidade como
variáveis de regressivas. Comparando-as entre se e com os valores reais das arrecadações do ICMS da Paraíba. Finalmente, considerando o erro quadrático médio e
erro total obtidos através da relação entre as arrecadações e previsões, selecionou-se
os modelos que geraram as melhores previsões para cada série, exibindo o gráco
com os valoreis reais, as previsões e o intervalo de confiança de 95%, vericando
quais as circunstâncias que os modelos melhor se adéqua para prever o ICMS da
Paraíba.
|
-
NIVALDO ANTÔNIO DE SOUZA SILVA
-
PREVISÃO DE CONSUMO DE ÁGUA NA ESTAÇÃO DE TRATAMENTO DE
ÁGUA DE GRAVATÁ - PB
-
Data: 27/07/2021
-
Hora: 13:00
-
Mostrar Resumo
-
Esta dissertação tem por objetivo realizar a previsão do consumo de água na Estação de Tratamento de Água de Gravatá-PB. No decorrer deste trabalho abordamos o sistema de abastecimento de água, com seus componentes, a estação de tratamento de água, e o sistema de abastecimento de Campina Grande. Para a previsão do consumo de água utilizamos como base os principais conceitos relacionados às séries temporais, a saber, o algoritmo de alisamento exponencial e os modelos Box-Jenkins. Esses últimos apresentam os modelos autorregressivos integrados de médias móveis ARIMA e o ARIMAX. No ARIMAX empregamos variáveis independentes. As variáveis independentes usadas no ARIMAX foram a estimativa da tendência, a variável dummy, que representa o consumo de água no período da pandemia da COVID-19, e a temperatura da região de Campina Grande. Por fim, realizamos comparações com os resultados obtidos das previsões e verificamos que o modelo ARIMAX(1,1,4) com variável explicativa a temperatura da região de Campina Grande obtive melhor resultado preditivo.
|
-
ADRIANA RIBEIRO MOURA
-
CRITÉRIOS DE SELEÇÃO DE MODELOS: UM ESTUDO COMPARATIVO
-
Data: 23/07/2021
-
Hora: 16:00
-
Mostrar Resumo
-
Ao estudar um dado fenômeno aleatório, em geral, há a necessidade de modelar o seu comportamento através de um modelo probabilístico. Na estatística, uma grande parte desses problemas são tratados com a hipótese que os dados são retirados de uma população com uma distribuição de probabilidade específica. Nesse sentido, surge a necessidade de avaliar a qualidade do ajuste de um modelo para modelar os dados em questão.
Na literatura, algumas estatísticas foram desenvolvidas como uma forma de mensurar a qualidade do ajuste de um modelo especificado pelo pesquisador a um conjunto de dados. Na inferência clássica, famílias de distribuições de probabilidades são impostas como possíveis candidatas para a modelagem do fenômeno de interesse e deseja-se decidir entre distribuições pertencentes à essas famílias, qual a que melhor se ajusta aos dados por meio de uma estatística de adequação de ajuste.
A ideia, em geral, provém de um problema de teste de hipóteses composto, no qual é considerado uma amostra aleatória $ X_{1},X_{2},...,X_{n} $ de uma população com função de distribuição acumulada contínua $ F_{X} $. O objetivo é testar a hipótese nula $ \mathcal{H}_{0}: F_{X}= G $ contra a hipótese alternativa $ \mathcal{H}_{1}: F_{X}\neq G $, em que $ G$ é uma função de distribuição acumulada imposta e assim, conhecida e $F_X$ é a distribuição real dos dados que é geralmente desconhecida.
Considerando as propriedades das famílias de distribuições generalizadas denotadas por $ G_c^{sup} $ e $ G_c^{inf} $ propostas por Tablada (2017), com parâmetro $c>0$, em que $G$ (\textit{baseline}) é uma distribuição de probabilidade qualquer, neste trabalho propomos um critério de adequação de ajuste $V$ baseado na razão de log-verossimilhanças $LR=\ell_g^{sup} - \ell_g^{inf}$.
Dessa forma, aceitar a hipótese nula $H_0: V=0$ implicará que $G_c^{sup}$ equivale a $G_c^{inf}$ para modelar os dados especificados. Por sua vez, a equivalência dessas duas distribuições induzirá que os dados poderão ser modelados por $G$.
Para comparar o desempenho do novo critério juntamente com os critérios: critério de informação de Akaike (AIC), critério de informação de Akaike corrigido (AICc), critério de informação bayesiano (BIC), critério de informação de Hannan-Quinn (HQIC) e os critérios de adequação de ajuste modificados de Crámer-Von Mises (W *) e Anderson-Darling (A*) realizamos diferentes cenários de simulação. Também para fins de comparação, ilustramos a sua aplicabilidade por meio de conjuntos de dados reais.
Como complemento da investigação realizada ao longo deste trabalho, apresentamos os resultados mais importantes sobre regressão linear múltipla e realizamos simulações com o objetivo de compararmos o desempenho do critério proposto juntamente com os critérios: critério de informação de Akaike (AIC), critério de informação de Akaike corrigido (AICc), critério de informação bayesiano (BIC), critério de informação de Hannan-Quinn (HQIC), também em modelos de regressão linear múltipla. Por fim, utilizamos o novo critério juntamente com os critérios de informação de Akaike (AIC), critério de informação bayesiano (BIC) e o coeficiente de determinação ajustado ( R² ) e verificamos seu desempenho aplicado a um conjunto de dados reais.
|
-
GEDEÃO DO NASCIMENTO CORPES
-
DISTRIBUIÇÃO BETA PRIME INFLACIONADA
-
Data: 14/07/2021
-
Hora: 14:00
-
Mostrar Resumo
-
As distribuições de probabilidade, sejam elas discretas ou contínuas podem
encontrar barreiras quando falamos de dados que contenham "zeros em excessos".
Para que essas distribuições possam mensurar tais dados,
criam-se distribuições mistas chamadas de distribuições inflacionadas.
A forma como esse inflacionamento vai ocorrer dependerá de seu conjunto suporte.
Nesta pesquisa propomos a construção da distribuição beta prime inflacionada em
zero (BPIZ) a partir da reparametrização apresentada em BOURGUIGNON et al.(2018).
Determinamos também estimadores de máxima verossimilhança e intervalos
de confiança para o modelo BPIZ. Avaliamos numericamente os estimadores e
os intervalos de confiança, onde verificamos sua eficiência.
Por fim, realizamos
aplicação para verificar, também, sua eficiência em relação à dados reais.
|
-
EMILIA GONÇALVES DE LIMA NETA
-
Aperfeiçoamento do teste da razão de verossimilhanças baseado na função de verossimilhança perfilada.
-
Data: 12/02/2021
-
Hora: 15:00
-
Mostrar Resumo
-
Na área de Estatística, uma das formas de realizar inferência sobre os parâmetros de um determinado modelo probabilístico é por meio de teste de hipóteses. Porém, muitas vezes, é conveniente realizar o estudo inferencial apenas para um subconjunto desses parâmetros, os quais são denominados de parâmetros de interesse e os demais, de perturbação. Inferências para parâmetros de interesse podem ser feitas utilizando a função de verossimilhança perfilada. Porém, o uso desta função pode conduzir a
resultados imprecisos quando o número de parâmetros de perturbação é grande em relação ao tamanho da amostra. Além disso, a função de verossimilhança perfilada não é uma função de verossimilhança genuína. Assim, algumas propriedades básicas de uma função de verossimilhança podem não ser válidas. Com o intuito de atenuar esses problemas, Barndorf-Nielsen (1983) e Severini (1998) propuseram versões ajustadas da função de verossimilhança perfilada. É conhecido da literatura que a estatística da razão de verossimilhanças, sob hipótese nula, tem distribuição assintótica qui-quadrado. Portanto, para amostras de tamanho pequeno ou moderado, a aproximação da distribuição assintótica nula pela distribuição nula exata pode não ser satisfatória. Visando conferir inferências baseadas em amostras de tamanho pequeno ou moderado mais confiáveis, Sousa (2020) propôs um método de aperfeiçoamento do teste da razão de verossimilhanças que consiste em fazer uma correção na cauda da distribuição nula assintótica através da distribuição qui-quadrado inf.
Neste trabalho, o principal objetivo é comparar o desempenho dos testes baseados na estatística da razão de verossimilhanças (considerando a função de verossimilhança pefilada e versões modificadas) com o método de aperfeiçoamento proposto por Sousa (2020) em amostras finitas. Também serão incluídas na comparação testes corrigidos pela técnica de reamostragem bootstrap. Especificamente, essa comparação será feita aplicando as diferentes abordagens às distribuições Lindley Ponderada
e Weibull Exponencializada. Para isso, serão realizadas simulações de Monte Carlo, considerando diferentes cenários. Por fim, realizamos exemplos numéricos com base em conjuntos de dados reais.
|
-
ALEXANDRE GOMES SOUZA
-
Volatilidade dos retornos dos índices de energias renováveis e choques de incertezas nos EUA e Europa
-
Data: 29/01/2021
-
Hora: 14:00
-
Mostrar Resumo
-
O objetivo deste trabalho é estimar a volatilidade dos retornos e choques de incertezas sobre os índices relacionados ao desempenho do mercado de energias renováveis no âmbito dos EUA e Europa. Neste sentido, uma análise dos riscos associados aos índices European Renewable Energy e o Renewable Energy Generation pode revelar como os mesmos afetam o desempenho do setor. Primeiramente serão estimados testes de quebra estrutural sobre as trajetórias de retornos e verificar se a análise deve divida entre regimes. Para estimar a volatilidade serão utilizados modelos heterocedásticos condicionais propostos na literatura, particularmente o modelo Dynamic conditional correlation multivariate GARCH (DCC-MGARCH). Os dados foram escolhidos tomando como base os índices Standard & Poor's 500, WilderHill, Arca Tech 100, West Texas Intermediate e Morgan Stanley Capital International, Thomson Reuters/CoreCommodity e U.S. Dollar. Além das estimativas de todos os parâmetros, serão obtidas matrizes de quase-correlação, quase covariância, e choques de incertezas sobre os índices estudados, por meio de funções de impulso respostas obtidas por um modelo de vetores autoregressivos (VAR).
|
-
JEFFERSON BEZERRA DOS SANTOS
-
MODELO DE BALANÇO ENERGÉTICO HIBRÍDO BASEADO EM PROGRAMAÇÃO DINÂMICA DUAL ESTOCÁSTICA
-
Data: 29/01/2021
-
Hora: 14:00
-
Mostrar Resumo
-
Com o aumento da demanda por energia elétrica grandes avanços tecnológicos são indispensáveis para um crescimento eficiente. No Brasil a hidrelétrica é a principal fonte de geração de energia. No entanto, devido ao aumento desproporcional da demanda e a escassez de chuvas, tem sido necessário a ativação de termelétricas para suprir a demanda, tendo como principais desvantagens o dano ambiental ser maior que outras fontes como as hidrelétricas. Vislumbrando a necessidade de realizar um gerenciamento adequado do despacho de energia, de modo a minimizar os custos da geração e uma diminuição do impacto ambiental, neste trabalho foi proposto um estudo baseado em Programação Dinâmica Dual Estocástica para sistemas hidrotérmicos com um sistema de geração eólica complementar. Para simular o comportamento aleatório do vento utiliza-se o movimento Browniano, admitindo-se que a velocidade do vento ao longo do tempo é um processo gaussiano contínuo. Neste trabalho foi feita a construção e análise do modelo hidrotérmico-eólico utilizando-se variações de produtibilidade para vários cenários de planejamento. Para a análise numérica dos resultados utilizou-se dados reais de curva de carga e uma amostra de curva de vento. No final os resultados da pesquisa identificaram duas configurações de despacho que evidenciam que a geração eólica complementar e variação do índice de produtibilidade trouxeram benefícios para a geração do sistema e diminuição do custo esperado.
|
-
WILTER DA SILVA DIAS
-
Modelo de Segmentação Clusterwise com Protótipos Híbridos
-
Data: 28/01/2021
-
Hora: 14:30
-
Mostrar Resumo
-
Apresenta-se, nesta Dissertação, uma metodologia que combina técnicas de predição e agrupamento denominada Modelo de Segmentação Clusterwise com Protótipos Híbridos (MoSCH), o qual objetiva segmentar os dados em clusters de modo que cada cluster seja representado por um modelo preditivo, como, por exemplo, um modelo de regressão ou algoritmo de aprendizagem de máquina (protótipo), dentre uma lista de métodos pré-definidos. A escolha do melhor protótipo para cada cluster tem o intuito de minimizar uma função objetivo. Além da implementação do algoritmo de estimação do método MoSCH, consideramos diferentes técnicas de alocação para novas observações de modo a avaliar o poder preditivo do algoritmo. Uma prova de convergência é apresentada, bem como a aplicação do método proposto em dados sintéticos e a bases de dados reais. Um novo método de alocação baseado no KNN, chamado alocação com KNN dos clusters combinados, é proposto, apresentando resultados interessantes. Já no experimento com dados sintéticos o algoritmo MoSCH é comparado com outro algoritmo em 6 cenários diferentes, tendo um ótimo desempenho. Na validação do algoritmo MoSCH com dados reais, o método proposto apresenta uma relevante performance quando comparado a outros 3 algoritmos, bem como a avaliação de 5 diferentes métodos de alocação.
|
-
CARLOS AUGUSTO DOS SANTOS
-
Dinâmica do Sarampo em Populações Parcialmente Imunizadas
-
Data: 22/01/2021
-
Hora: 09:00
-
Mostrar Resumo
-
Serão introduzidos conceitos básicos relacionados ao sarampo e principalmente sua forma de contágio, bem como modelos matemáticos que regem sua dinâmica considerando efeitos de vacinação. A seguir serão apresentados conceitos da Teoria do Controle Ótimo que serão utilizados para a formulação e resolução de um problema que visa minimizar a densidade de infectados.
|