CHATBOT BASADO EN UNA VERSIÓN LIGERA DEL MODELO BERT PAREDES RIVAS
ciones http mediante los métodos GET y POST. Con el mé-
todo GET se observó que el agente conversacional fue capaz
de soportar 100 usuarios de forma simultánea, atendiendo un
total de 600 peticiones sin ningún tipo de error durante una
sola ejecución y tomándole un tiempo promedio, para aten-
der la mayoría de peticiones de 224 ms con un rendimiento
de 81,1 solicitudes por segundo. Sin embargo, al aumentar
la cantidad de usuarios a 200 y el número de repeticiones a
4 ciclos, atendiendo en total 4.800 peticiones, se evidenció
un error del 0,08%, señalando que el chatbot no fue capaz
de responder a ciertas peticiones, pero continuó funcionando
sin ningún inconveniente debido a que fue un porcentaje muy
pequeño. Con el método POST se inició la simulación ingre-
sando 100 usuarios para 100 peticiones y se observó que no
hubo ningún tipo de error, los tiempos promedios para aten-
der las peticiones fueron de 37.798 ms, con un rendimiento
de 46 peticiones por minuto. Al aumentar el número de re-
peticiones a 4 ciclos para llegar atender 400 peticiones, se
produjo un error del 78% indicando que la mayoría de so-
licitudes no tuvieron respuesta por parte de agente conver-
sacional, e incluso llegando a que el servidor donde estaba
aloja la aplicación se reiniciara.
CONCLUSIONES
La búsqueda bibliográfica es una técnica muy efectiva, ya
que a través de esta se pudieron obtener 13 artículos cientí-
ficos donde se mencionaban las tecnologías y herramientas
que se podían usar para realizar el ajuste del modelo BERT
y por ende ser también usadas para la versión ligera que se
escogió DistilBERT. Se pudo conocer, que el lenguaje prin-
cipal utilizado para llevar a cabo el ajuste es Python, junto
con las librerías de PyTorch y Transformers. Además, de que
se debe usar como recurso mínimo una GPU con memoria
RAM de 16 GB.
Seguir la metodología XP para el desarrollo del agente
conversacional fue muy importante, ya que esta permitió di-
vidir el proyecto en diferentes fases, siendo la primera la más
esencial, pues es donde se llevó a cabo el entrenamiento de la
red neuronal que se utilizaron para el desarrollo del chatbot
además de crear las historias de usuario sobre el funciona-
miento del mismo, y a partir de ello ejecutar las fases restan-
tes de la metodología.
Las pruebas realizadas con la herramienta ApacheJMeter
permitieron conocer las limitaciones del agente conversacio-
nal, donde se pudo observar que es capaz de atender has-
ta 4.800 peticiones de forma simultánea mediante el método
GET con un porcentaje muy pequeño de errores (0,08%) per-
mitiendo que siga funcionando sin problemas. Sin embargo,
al usar el método POST y someter el bot a una cantidad cons-
tante de 400 peticiones se produjo un error del 78%, ya que
existió un consumo de memoria y CPU muy elevado, provo-
cando que el chatbot y el servidor que contenía la aplicación
deje de funcionar por un periodo corto de tiempo.
AGRADECIMIENTOS
Un agradecimiento a la Universidad Nacional de Loja, a
los estudiantes y docentes de la Carrera de Ingeniería en Sis-
temas/Computación, por su colaboración en el presente tra-
bajo.
CONTRIBUCIONES DE LOS AUTORES
Conceptualización: LPR; metodología: LPR; análisis for-
mal: LPR.; investigación: LPR; recursos: LPR; redacción —
preparación del borrador original: LPR; redacción — revi-
sión y edición: RFD; visualización: LPR; supervisión: RFD;
administración de proyecto: LPR; adquisición de financia-
miento para la investigación: LPR. Todos los autores han leí-
do y aceptado la versión publicada del manuscrito.
Leonardo Paredes-Rivas: LPR, Roberth Figueroa-Díaz.
FINANCIAMIENTO
El presente estudio fue financiado por sus autores.
REFERENCIAS
Al-Besher, A., Kumar, K., Sangeetha, M., y Butsa, T. (2022).
BERT for Conversational Question Answering Systems
Using Semantic Similarity Estimation. Computers, Ma-
terials and Continua,70(3), 4763–4780. doi: 10.32604/
cmc.2022.021033
Annamoradnejad, I., Fazli, M., y Habibi, J. (2020). Pre-
dicting Subjective Features from Questions on QA Web-
sites Using BERT. 2020 6th International Conference
on Web Research, ICWR 2020, 240–244. doi: 10.1109/
ICWR49608.2020.9122318
Bagwe, R., y George, K. (2020). Automatic Numerical
Question Answering on Table using BERT-GNN. 2020
11th IEEE Annual Ubiquitous Computing, Electronics
and Mobile Communication Conference, UEMCON 2020,
118–124. doi: 10.1109/UEMCON51285.2020.9298028
Bathija, R., Agarwal, P., Somanna, R., y Pallavi, G. (2020).
Guided Interactive Learning through Chatbot using Bi-
directional Encoder Representations from Transformers
(BERT). 2nd International Conference on Innovative
Mechanisms for Industry Applications, ICIMIA 2020 -
Conference Proceedings(Icimia), 82–87. doi: 10.1109/
ICIMIA48430.2020.9074905
Chan, Y., y Fan, Y. (2019). A Recurrent BERT-based Model
for Question Generation. MRQA@EMNLP 2019 - Procee-
dings of the 2nd Workshop on Machine Reading for Ques-
tion Answering, 154–162. doi: 10.18653/v1/d19-5821
Devlin, J., Chang, M.-W., Lee, K., y Toutanova, K. (2018).
Bert: Pre-training of deep bidirectional transformers for
language understanding. arXiv. doi: 10.48550/ARXIV
.1810.04805
He, Y., Zhu, Z., Zhang, Y., Chen, Q., y Caverlee, J. (2020).
Infusing Disease Knowledge Into BERT for Health Ques-
tion Answering, Medical Inference and Disease Name Re-
cognition. EMNLP 2020 - 2020 Conference on Empi-
rical Methods in Natural Language Processing, Procee-
dings of the Conference, 4604–4614. doi: 10.18653/v1/
2020.emnlp-main.372
Nikas, C., Fafalios, P., y Tzitzikas, Y. (2020). Two-stage
Semantic Answer Type Prediction for Question Answe-
ring Using BERT and Class-specificity Rewarding. CEUR
Workshop Proceedings,2774, 19–28.
181