Descrição do Amar Oitijjho
A frase bengali 'Amar Oitijjho' pode ser traduzida como 'minha herança'. Empregamos intencionalmente o pronome 'meu' para enfatizar o apego individual, o envolvimento e a adaptação pessoal de uma herança cultural comum, ao mesmo tempo em que enfatizamos que essa herança pertence à comunidade mais ampla. Num mundo globalizado onde somos continuamente dominados por influências de diversas culturas, é essencial que nos orgulhemos e desenvolvamos uma ligação íntima com os elementos culturais que nos distinguem e definem a nossa identidade.
Este projeto visa desenvolver um aplicativo para smartphone Android capaz de reconhecer fotos de notas de Taka e exibir um modelo 3D correspondente na tela do celular usando realidade aumentada. O resultado esperado é que o modelo 3D pode ser colocado em qualquer superfície plana para fornecer uma aparência realista. O aplicativo pode ser resumido em três etapas: criar um modelo de IA, criar um endpoint para receber informações relevantes sobre uma imagem que está sendo capturada e, finalmente, conectar o resultado da segunda seção a um mecanismo de realidade aumentada (ARCore) para exibir o modelo 3D em telas móveis. A primeira fase do desenvolvimento é coletar imagens do mundo real de cédulas que o sistema inteligente usará para identificá-las. Por meio da coleta de informações, uma biblioteca abrangente de imagens deve ser compilada, incluindo fotografias de notas de 10, 20 e 100 taka capturadas de diferentes ângulos de câmera e sob diferentes condições de iluminação. Mais fotos podem ser adicionadas a qualquer momento e o modelo AI pode ser treinado várias vezes para melhorar a precisão geral. O conjunto de dados de imagem será utilizado para treinar e avaliar o modelo inteligente. A Rede Neural Convolucional, que tem um excelente histórico de reconhecimento de imagens, pode ser uma escolha aceitável para esse fim. Uma vez construído o modelo, podemos passar para a segunda etapa, que consiste em estabelecer um dicionário para rotular as fotos com os nomes necessários para que o sistema de IA reconheça uma imagem e forneça um resultado indicando qual imagem detectou. Os dados fornecidos pelo dicionário serão transferidos para a estrutura de realidade aumentada desenvolvida para exibir o modelo 3D necessário.
Este projeto visa desenvolver um aplicativo para smartphone Android capaz de reconhecer fotos de notas de Taka e exibir um modelo 3D correspondente na tela do celular usando realidade aumentada. O resultado esperado é que o modelo 3D pode ser colocado em qualquer superfície plana para fornecer uma aparência realista. O aplicativo pode ser resumido em três etapas: criar um modelo de IA, criar um endpoint para receber informações relevantes sobre uma imagem que está sendo capturada e, finalmente, conectar o resultado da segunda seção a um mecanismo de realidade aumentada (ARCore) para exibir o modelo 3D em telas móveis. A primeira fase do desenvolvimento é coletar imagens do mundo real de cédulas que o sistema inteligente usará para identificá-las. Por meio da coleta de informações, uma biblioteca abrangente de imagens deve ser compilada, incluindo fotografias de notas de 10, 20 e 100 taka capturadas de diferentes ângulos de câmera e sob diferentes condições de iluminação. Mais fotos podem ser adicionadas a qualquer momento e o modelo AI pode ser treinado várias vezes para melhorar a precisão geral. O conjunto de dados de imagem será utilizado para treinar e avaliar o modelo inteligente. A Rede Neural Convolucional, que tem um excelente histórico de reconhecimento de imagens, pode ser uma escolha aceitável para esse fim. Uma vez construído o modelo, podemos passar para a segunda etapa, que consiste em estabelecer um dicionário para rotular as fotos com os nomes necessários para que o sistema de IA reconheça uma imagem e forneça um resultado indicando qual imagem detectou. Os dados fornecidos pelo dicionário serão transferidos para a estrutura de realidade aumentada desenvolvida para exibir o modelo 3D necessário.
Mostrar