Um site para você criar histórias de arrepiar para curtir o halloween com seus amigos. Você insere os elementos que deseja e ele te retorna uma história de arrepiar.
Era uma noite escura e tempestuosa no hackathon, o ambiente perfeito para uma aventura de programação com um toque de mistério. Nosso projeto? Um site capaz de invocar histórias de terror a partir de elementos e palavras-chaves, alimentado pelo modelo de machine learning Llama da Meta. Assim nascia o “Magallama Coven”, nossa conjuração digital para evocar sustos e arrepios!
O grupo começou a traçar seu ritual de criação, planejando alocar tanto o modelo de IA quanto o site dentro de uma VM sombria da Magalu Cloud, tudo isso orquestrado com a magia do Terraform. O primeiro passo foi desvendar os grimórios do Terraform e explorar os corredores obscuros da Magalu Cloud. Invocamos uma VM e um bloco de armazenamento, mas, como em toda boa história de terror, obstáculos surgiram. Ao tentar subir os recursos, percebemos que as máquinas listadas revelavam apenas as primeiras cinquenta, e nossa invocação parecia perdida no éter. Com a ajuda dos mentores, que quase como feiticeiros experientes, guiaram-nos pelo nevoeiro, conseguimos avançar.
Enquanto desvendávamos os mistérios do Terraform, outro grupo de bravos programadores se aventurava na construção do site. O frontend foi erguido com facilidade, mas logo a integração com a API do Llama revelou uma sombra desconhecida: a versão escolhida não atendia às nossas necessidades de invocar histórias dignas de arrepiar. Testamos diversas versões, cada uma como uma poção diferente até achar a fórmula perfeita para assustar nossos futuros leitores.
E então, um susto real nos atingiu. Ao criar o repositório no GitHub, percebemos que um estranho já havia feito um commit no nosso repositório. O nome dele? DanielHenrique373. Quem é DanielHenrique373? Um hacker? Um espectro digital? Nunca saberemos, mas naquele momento, sentíamos a presença de um fantasma do GitHub, um poltergeist da programação.
Superado o susto, seguimos com nossa missão. Finalmente, quando VM e block storage estavam prontos, passamos para a instalação das dependências do Llama. Mas, em um último ato de rebeldia, a memória da máquina começou a se esvair como areia por entre os dedos. Foi aí que descobrimos que o block storage não estava ligado à memória da VM. Mais uma vez, recorremos aos mentores, os guardiões desse universo, que nos ajudaram a resolver o enigma.
Assim, como numa lenda assombrada de programação, nosso projeto de histórias de terror começou a ganhar vida. Quem diria que até no código a presença de sombras e aparições desconhecidas pode transformar um simples hackathon em uma verdadeira aventura de Halloween?
Superado o susto, seguimos com nossa missão. Enquanto o projeto avançava, percebemos que a invocação do site estava emperrada. Para manter o desenvolvimento fluindo, criamos uma VM alternativa para testar o deploy do site, enquanto tentávamos vincular o storage bloqueado com a VM original. Revelamos, então, mais uma fraqueza: a máquina tinha pouca memória, o que comprometeu qualquer tentativa de integração com o armazenamento. Com uma rápida atualização dos parâmetros, conseguimos realizar a conjunção entre o storage e a VM, corrigindo nomes e limpando as trevas de configurações desnecessárias que assombravam nosso código. Ligamos o ID do block storage ao ID da VM, selando o vínculo necessário para a magia fluir.
A tentativa de fazer o site decolar nos trouxe outro enigma: as configurações de segurança das portas. Por mais que tentássemos abri-las pela VM, algo bloqueava nossa entrada. Foi então que chamamos Gabriel, um feiticeiro das configurações, que sugeriu editar as permissões de segurança diretamente pelo console da Magalu Cloud. Ao fazê-lo, a barreira foi rompida, e com sua ajuda conseguimos pôr o site no ar pela VM, utilizando Nginx e npm para conjurar o servidor. Configuramos o proxy server, permitindo que qualquer visitante acessasse o site por meio de um IP público.
Enquanto isso, o restante da equipe se aventurava em outra VM, tentando invocar o modelo Llama para integrá-lo ao site. Depois de muitas tentativas, conseguimos fazer o modelo ganhar vida na segunda máquina. Estava rodando, pronto para alimentar nossa fonte de histórias de terror.
No entanto, o tempo do hackathon se esgotava, e, por mais que tentássemos, não conseguimos unificar o site e o modelo em uma única VM, como gostaríamos. A integração final ficou além de nosso alcance, e o “Magallama Coven” terminou com o site e o modelo em VMs separadas.
Ainda assim, nossa história — repleta de mistérios, sustos e descobertas — não foi em vão. O projeto nasceu das trevas e está pronto para evocar calafrios, contando histórias sinistras em qualquer máquina que ousar acessá-lo. Em cada linha de código, ficou o rastro de um hackathon memorável, onde até os erros e bugs pareceram sussurros de lendas assombradas.
Site no Ar:
A VM em que rodamos o site é a covenagoravai
A VM que utilizamos para subir o modelo é a coven-lamav2
Oi pessoal! Bom trabalho!
Vi a solução rodando bonitinha durante a hackathon (então ainda existe na minha memória KKK), mas acho que as VMs foram apagadas no final do evento :((
Vocês conseguiriam enviar os códigos que escreveram, para avaliarmos direitinho?
Valeu!
Olá Gabriel, tudo bem?
Infelizmente a maioria do código ficou na VM, mas estamos colocando neste novo repositório, porque não vamos conseguir acesso de escrita no repositório original a tempo da avaliação: GitHub - anaconrado/Magallama
o repositório original só com o código do site que desenvolvemos de madrugada: