Bem-vindo ao repositório FAQ-Recommendations! Este projeto consiste em uma aplicação web que simula um chat de atendimento, onde um atendente pode interagir com os usuários. A aplicação utiliza uma tecnologia de busca semântica para sugerir respostas do FAQ com base nas mensagens dos usuários. O objetivo principal é facilitar o atendimento ao cliente, fornecendo respostas relevantes e agilizando o processo de suporte.
O objetivo deste projeto é criar uma interface de chat que permite aos atendentes responder eficientemente às consultas dos usuários, fazendo uso de uma base de Perguntas Frequentes (FAQ). O sistema emprega uma tecnologia de Inteligência Artificial para analisar as mensagens dos usuários e sugerir automaticamente respostas do FAQ, otimizando assim a comunicação e a eficiência do atendimento.
-
Chat de Atendimento Interativo: A aplicação simula uma interface de chat em que os atendentes podem responder às mensagens dos usuários de forma interativa.
-
Sugestão de Respostas do FAQ: Com base nas mensagens dos usuários, a tecnologia de IA analisa a semelhança com as perguntas frequentes da base de FAQ e sugere respostas relevantes.
-
Apresentação de Similaridade: As respostas sugeridas são exibidas com uma indicação de similaridade em relação à mensagem do usuário.
- HTML e CSS: Para a construção da interface do chat.
- Flask: Um framework de desenvolvimento web em Python, usado para criar o servidor e as rotas da aplicação.
- Python: A linguagem principal para a lógica de negócios e interação com a API de IA.
- Tecnologia de IA: Utilizada para calcular a similaridade das mensagens e sugerir respostas do FAQ.
Python | Git |
3.11.4 > | 2.41.0 |
-
Clone este repositório utilizando o comando
git clone https://github.com/BrunoTanabe/faq-recommendations
. -
Navegue até a pasta faq-recommendations utilizando o comando
cd faq-recommendations
. -
Crie um ambiente virtual utilizando o comando
python3 -m venv venv
. -
Ative o ambiente virtual utilizando o comando
source venv/bin/activate
. -
instale os requisitos utilizando o comando
pip install -r requirements.txt
.
-
Clone este repositório utilizando o comando
git clone https://github.com/BrunoTanabe/faq-recommendations
. -
Navegue até a pasta faq-recommendations utilizando o comando
cd faq-recommendations
. -
Crie um ambiente virtual utilizando o comando
python -m venv venv
. -
Ative o ambiente virtual utilizando o comando
./venv/scripts/activate
. -
instale os requisitos utilizando o comando
pip install -r requirements.txt
.
-
Utilize o comando
cd models
para navegar até a pasta models. -
Execute o comando
python -m spacy download pt_core_news_lg
para baixar o modelo NLP para processamento de texto. -
Utilize o comando
git clone https://huggingface.co/neuralmind/bert-large-portuguese-cased
para baixar o modelo de embeddings.
-
Certifique-se de que o ambiente virtual está ativado
-
Utilize o comando
cd src
para navegar até a pasta src -
Utilize o comando
uvicorn main:app
para iniciar a API que estará sendo
-
Execute o arquivo
app.py
para iniciar o servidor Flask:python app.py
. -
Acesse a aplicação em seu navegador através do endereço:
http://localhost:5000
.
para fazer as requisições basta entrar na seguinte URL: http://127.0.0.1:8000/get_similarities/{seu texto vai aqui}
, no qual será retornado um JSON com as recomendações do FAQ.
Certifique-se de integrar a tecnologia de IA apropriada para calcular as similaridades e sugerir as respostas do FAQ.
Bruno Henrique Pereira Domingues e Rafael dos Santos Fortes
Gostaríamos de expressar nossa sincera gratidão à equipe da Tech4Humans pela emocionante oportunidade de aprendizado e pelo inspirador projeto proposto. Essa jornada nos proporcionou uma experiência enriquecedora, permitindo-nos explorar e aprimorar nossas habilidades no desenvolvimento web, integração de tecnologias de IA e criação de soluções interativas.
Este projeto nos desafiou a pensar criativamente, trabalhar em equipe e enfrentar desafios técnicos, capacitando-nos a enfrentar situações do mundo real com confiança e determinação. Mais uma vez, obrigado à Tech4Humans por acreditar em nós e nos proporcionar esta experiência incrível.