Trabalho de Conclusão de Curso
URI Permanente para esta coleção
Navegar
Navegando Trabalho de Conclusão de Curso por Título
Agora exibindo 1 - 9 de 9
Resultados por página
Opções de Ordenação
- ItemAnálise comparativa entre as ferramentas Front-End JavaScript para o desenvolvimento de aplicações de página única (SPA): Angular, React E Vue(2023-06-30) Amarante, Patrícia Pieroni; Mestre Roger Santos FerreiraCom o crescimento do desenvolvimento web, escolher a tecnologia certa para a criação de aplicações web pode ser um desafio. Nesse contexto, as ferramentas front-end JavaScript desempenham um papel fundamental na construção de interfaces de usuários interativas e responsivas. Este trabalho oferece um panorama comparativo do Angular, React e Vue, permitindo que os desenvolvedores se baseiem em tabelas e situações comparativas para tomar decisões informadas sobre a escolha da ferramenta mais adequada para suas necessidades e preferências. A análise é realizada com base em fatores como popularidade, maturidade e estabilidade, curva de aprendizado e desempenho. As métricas e critérios abordados neste estudo comparativo foram considerados relevantes com base em diversos artigos e referências especializadas. Ao levar em conta os fatores mencionados, este trabalho segue uma abordagem fundamentada em pesquisas, testes e análises prévias.
- ItemAplicações de redes neurais na previsão de operações day trade(2023-11-22) Santos, Yuri Gandra; Mestre Mário Luiz Rodrigues Oliveira; Mestre Rodrigo Menezes Sobral ZacaroniEsta monografia abordou o desenvolvimento e análise de quatro modelos de redes neurais: Autoencoders, Redes neurais convolucionais, Redes neurais Long Short-Term Memory (LSTM) e as Redes neurais multilayer perceptron (MLP), visando avaliar seu desempenho em operações de day trade. Os resultados destacaram a complexidade da implementação de redes neurais no ambiente financeiro, com cada modelo apresentando características únicas e trade-offs significativos. O estudo ressaltou a importância de abordagens adaptativas e cuidadosas na escolha e implementação de redes neurais em sistemas de negociação, reconhecendo a inexistência de uma solução universal. No trabalho esses modelos foram implementados, testados e avaliados utilizando métricas como lucro obtido, numero de negociações, porcentagem de negociações com lucro, fator de lucro e fator de recuperação. Para treinamento dos modelos foi utilizado o período de 01/2018 até 01/2023, com 70% dos dados coletados destinados a treinamento e 30% para teste. Utilizou-se 5 features como entrada para cada uma das redes implementadas, sendo: preço de abertura, preço de fechamento, máxima, mínima e uma média móvel de 21 períodos. Ao fim do trabalho conclui-se que o melhor modelo de rede neural dentre as analisadas foi o autoencoder. Por obter o maior lucro e na maior parte dos testes os melhores resultados de acordo com as métricas adotadas. Isso não indica que as outras são ruins ou não podem ser utilizadas no mercado financeiro. Apenas que para o tempo gráfico de 15 minutos o modelo que apresentou o melhor resultado foi o autoencoder e que nesse cenário ele é a melhor opção.
- ItemDesenvolvimento de um protótipo organizador de moradias compartilhadas usando práticas ágeis(2023-06-30) Ferreira, Kimberly Lamounier Campos; Mestre Roger Santos FerreiraAs moradias compartilhadas são arranjos habitacionais em que grupos de pessoas dividem um imóvel, estabelecendo uma gestão autônoma baseada em regras acordadas por unanimidade. Com o intuito de aprimorar a convivência nas moradias compartilhadas, sugere-se a implementação de uma aplicação web responsiva, desenvolvida através de métodos ágeis, como Design Thinking, Kanban e Objectives and Key Results (OKR), integrados a uma interface de usuário que desempenha o papel de conceber o protótipo e facilitar a execução de ações pertinentes. Essa integração visa demonstrar a aplicação dos métodos ágeis ao longo de todo o ciclo de vida do projeto, desde a fase inicial de concepção até a implementação prática, apresentando resultados que exemplifique a efetividade dessas práticas ágeis e considerações da interação entre as tecnologias e metodologias empregadas.
- ItemEstudo e implementação de classificadores binários para detecção de malwares de Android baseados em features estáticas(2023-11-21) Azevedo, Rafael Alvarenga de; Mestre Mário Luiz Rodrigues OliveiraEste trabalho oferece uma visão abrangente sobre a crescente dependência da sociedade contemporânea em relação à tecnologia, em particular aos dispositivos móveis . Diante disso, destaca-se que aplicativos maliciosos de Android podem ser usados para uma ampla gama de atividades ilícitas que afetam a segurança e a privacidade dos usuários. Logo, é necessário uma intervenção por parte de pesquisadores para responder e mitigar esse tipo de ameaça cibernética. Para contribuir com essa premissa, conduziu-se uma revisão sistemática da literatura, de estudos entre os anos de 2015 a 2021, para identificar técnicas e ferramentas que tratam problemas de Análise de Malware em dispositivos Android. Consequentemente, leram-se 60 artigos na íntegra para compilar e classificar técnicas e ferramentas, tipos de malwares e técnicas anti-análise de malware, mais recorrentes. Por conseguinte, os resultados deste trabalho permitem concluir que a análise de malwares em dispositivos Android está em constante evolução, pois existem técnicas tanto para analisar amostras, como para impedir esta análise. Ainda, identificaram-se 118 técnicas, de classes distintas, para tratar os problemas dessa área de estudo; 357 ferramentas, classificadas como as técnicas; 9 técnicas anti-análises; e 14 tipos de malwares. Adicionalmente, por meio da montagem de um dataset com 10000 aplicativos, legítimos e maliciosos, com o emprego das técnicas Permission based Analysis, Call Graph Analysis e Taint Analysis, conclui-se que é possível caracterizar aplicativos Android, na medida em que são identificados métodos alcançáveis no call graph de um app e métodos que vazam informações sensíveis do usuário. Com o dataset pronto, implementou-se e avaliou-se os resultados dos seguintes classificadores binários: Decision Tree, Random Forest, Adaboost, Naive Bayes e SVM (RBF).
- ItemFerramenta de aferição periódica e automatizada de métricas da qualidade de serviço da conexão residencial à internet(2023-06-27) Vale, Thomas do; Mestre Everthon ValadãoA Anatel regulamenta a Qualidade de Serviço (QoS) mínima que os Provedores de Acesso à Internet (ISPs) devem manter. Todavia, nos meios populares de aferição como o site Speedtest.net, há uma possível interferência nos resultados do teste ao se aferir contra um servidor hospedado na própria infraestrutura do ISP. A aferição realizada dessa maneira não captura a qualidade do acesso à internet pública, contratada pelo cliente, mas sim a qualidade do acesso à rede interna privada do ISP. Além disso, as ferramentas de aferição convencionais não são periódicas, limitando a avaliação da rede a um instante específico (sem informar a qualidade média da conexão), e possuindo fragilidades inerentes ao modelo cliente-servidor. Como solução para tal problema, neste trabalho foi desenvolvida uma ferramenta par-a-par (P2P) chamada Peertest para aferição periódica das métricas de qualidade do serviço prestado pelo ISP. A rede DHT do BitTorrent foi utilizada como ponto de encontro dos pares da Peertest e o STUN seguido da técnica UDP Hole Punching visou o alcance da conectividade fim-a-fim entre eles, mesmo que estivessem atrás de NATs, possibilitando as aferições entre os pares. A ferramenta desenvolvida foi capaz de aferir de forma mais realista as métricas de latência e perda de pacotes, registrando um ritmo circadiano e com valores mais heterogêneos que a popular ferramenta Speedtest.net. O protótipo foi validado em ambiente operacional relevante (par em residência and par na Amazon AWS). Já em relação às velocidades de download e upload, nos testes de campo tais aferições da ferramenta Peertest ficaram limitadas a um platô, afetada por alguma limitação específica no ambiente do experimento, devido a provável traffic shaping aplicado por alguns ISPs. Além da ferramenta desenvolvida, foi documentado o uso das técnicas de Tradução de Protocolo de Transporte e do UDP Hole Punch, bem como diversas particularidades encontradas em ISPs para se viabilizar conexão fim-a-fim. Também é apresentado um algoritmo de seleção de par que pode subsidiar soluções semelhantes e derivativas. A ferramenta pode ser obtida e utilizada diretamente via uma imagem de contêiner Docker. Já o código-fonte da ferramenta, bem como os resultados do experimento, estão disponibilizadas no GitHub.
- ItemFiltragem Híbrida para Sistema de Recomendação de Livros utilizando Redes Neurais(2023-12-19) Mendes, Bruna Cristina; Mestre Everthon Valadão dos SantosEsta monografia aborda o desenvolvimento de um sistema de recomendação híbrido para livros, combinando abordagens colaborativas e baseadas em conteúdo, impulsionado por Redes Neurais. A crescente complexidade e diversidade dos dados tornam essencial a adoção de modelos híbridos, e este trabalho justifica-se pela necessidade de oferecer aos leitores sugestões mais relevantes e personalizadas, superando as limitações dos modelos tradicionais. O objetivo do trabalho é estudar, implementar e avaliar um sistema de recomendação híbrido, utilizando uma Deep Neural Network (DNN), que não apenas sugira obras com base em preferências passadas, mas também leve em conta características literárias específicas, proporcionando recomendações mais contextuais. A validação foi conduzida por meio de experimentos utilizando os conjuntos de dados do BookCrossing e da Amazon, e a avaliação é feita comparando a precisão das recomendações com o modelo de filtragem colaborativa e identificando melhorias na personalização do modelo híbrido proposto. As principais contribuições deste trabalho incluem a implementação de um sistema híbrido eficaz, que possibilita a avaliação comparativa com modelos tradicionais e análise das melhorias alcançadas.
- ItemO uso do NSGA-II para maximizar o lucro e a distribuição dos recursos entre apostas esportivas(2023-12-12) Sales, João Geraldo Borges; Mestre Everthon Valadão dos SantosO mercado de apostas esportivas online está em ascensão, movimentando dezenas de bilhões de dólares. A abordagem convencional de aproveitar as oportunidades decorrentes de erros de precificação nas casas de apostas (surebets) pode não ser sustentável quando empregada sem moderação. Investimentos elevados, voltados para maximizar o lucro, facilitam a identificação dessa estratégia, como consequência possíveis restrições, podem ocorrer cancelamento de apostas ou até mesmo o bloqueio de suas contas por parte das casas de apostas. Este trabalho propõe o desenvolvimento de um protótipo de software para otimizar o lucro e a distribuição eficiente de recursos entre um conjunto de surebets disponíveis, aproveitando oportunidades decorrentes de erros das casas de apostas. A solução proposta adota o uso da meta-heurística NSGA-II, uma abordagem multi-objetivo, para gerar soluções que maximizem não só o lucro, mas também otimizem a distribuição do investimento entre as apostas com a intenção de evitar bloqueios e/ou limitações. Utilizando dados coletados de janeiro a outubro/2023 por meio de uma API e da construção de um algoritmo, montamos um dataset contendo mais de 2.400 jogos e centenas de surebets identificadas. Para validar o algoritmo foram considerados quatro cenários, explorando diferentes operadores de crossover. Com meta-heurística parametrizada, é gerado um conjunto de soluções que maximizam o lucro e a distribuição eficiente de recursos entre as surebets. Os resultados alcançados por este trabalho se traduzem em um protótipo de software que proporciona soluções adaptáveis a diversos perfis de apostadores, desde os mais conservadores, que preferem distribuir o investimento entre várias surebets, até os mais arrojados, que buscam maximizar o lucro e preferem investir na surebet que oferece o maior lucro.
- ItemUma ferramenta de um aplicativo para propor e exibir rotas para a coleta de resíduos sólidos em ambientes urbanos(2023-11-13) Mário Luiz Rodrigues OliveiraA coleta de lixo é uma atividade muito importante na sociedade atual, por causa dessa relevância os municípios estabelecem diretrizes legais para o cumprimento e realização dessa atividade. Segundo o plano municipal de saneamento básico da prefeitura de Formiga e conforme a lei Federal nº. 11.445/2007 do código de limpeza urbana, a coleta de lixo é um dos serviços de limpeza urbana que são responsabilidades básicas do poder executivo. Dados de 2008 produzidos pelo IBGE indicam que 98% dos domicílios localizados em zonas urbanas têm serviço de coleta de lixo. Além disso, o lixo coletado no Brasil no ano de 2020 alcançou a taxa média de 379,2 kg/hab/ano, ou seja, o Brasil produz aproximadamente 79 milhões de toneladas de lixo em 2018 (IBGE, 2012). Dada a importância do tema, propõe-se um protótipo de aplicativo para exibir graficamente rotas a serem seguidas na coleta de resíduos sólidos na cidade de Formiga. Neste trabalho, abordou-se o problema para definição de rotas para coleta de resíduos sólidos como instancia do Problema Roteamento de Veículos Capacitado (CVRP). Identificou-se na literatura que as abordagens algorítmicas mais utilizadas na resolução do CVRP são: Algoritmos Genéticos, Colônia de Formiga e Optimização por enxame de partículas. Implementaram-se tais algoritmos e realizaram-se computacionais em alguns benchmarks. Os resultados experimentais indicaram que a abordagem utilizando algoritmos genéticos é a mais promissora. Assim, aplicou-se tal abordagem para propor rotas de coleta de resíduos sólidos em bairros da cidade de Formiga. Por fim, foi construído um aplicativo em Flutter para mostrar os resultados e também uma API em Spring Boot para fazer a comunicação entre os códigos.
- ItemUtilização da heurística NSGA-II na otimização das rotas de coleta de lixo, aplicada às cidades mineiras de Formiga e Lagoa da Prata(2023-11-16) Silva, Lucas Mateus Menezes; Mestre Everthon Valadão dos SantosO Brasil é um dos grandes produtores de lixo do mundo. De acordo com um estudo feito pelo WWF (World Wide Fund for Nature), o Brasil se encontra na 4a posição como o maior produtor de lixo plástico em todo o mundo (WWF, 2019). Com tanto lixo sendo produzido no país, torna-se difícil para as cidades coletarem todo o lixo e ainda o façam de uma forma eficiente. Neste trabalho é proposto um método para otimizar rotas de veículos coletores de lixo, através da meta-heurística NSGA-II, tendo sido desenvolvido um protótipo de software que gera rotas de coleta otimizadas, para uma determinada cidade ou região. Nos experimentos, foram utilizados como cenários as cidades de Formiga/MG e Lagoa da Prata/MG, as soluções geradas conseguiram eficazmente gerar rotas que passam por todos os pontos de coleta definidos (esquinas entre as ruas) bem como coletar todo o montante de lixo simulado respeitando as restrições na quantidade de caminhões de lixo. Por utilizar uma heurística multiobjetivo, a aplicação gera um conjunto de soluções possíveis, de forma que o responsável pela coleta de lixo daquela localidade escolha a solução que melhor atenda suas demandas, ex.: limitação na quantidade de caminhões, periodicidade desejada da coleta, maior economia de combustível, dentre outras. Com o problema devidamente modelado para a meta-heurística NSGA-II, foi possível otimizar todas as funções-objetivo definidas com um tempo de processamento em torno de quatro horas. Para tal, foram experimentadas diferentes estratégias de mutação e de crossover, devidamente documentadas. Dentre as principais contribuições realizadas por esse trabalho estão: confecção de uma aplicação que gera configurações de rotas de coleta de lixo para uma cidade ou região; modelagem para simulação do lixo diariamente gerado em cada rua de uma cidade, em média; modelagem da limitação na capacidade de cada caminhão transportar lixo (Problema de Roteamento de Veículos Capacitados), demandando mais de uma viagem; modelagem de função-objetivo para que as rotas geradas para os caminhões evitem subir e descer morros desnecessariamente (Problema do Carteiro Chinês Com Vento); proposta de uso de memorização da clusterização para agilizar o tempo de execução do algoritmo. O software elaborado exporta um arquivo KML contendo as diferentes rotas geradas, de maneira que possam ser carregadas e visualizadas no Google Earth. Todo o código gerado foi disponibilizado para acesso público em um repositório no GitHub.