Mostrar el registro sencillo del ítem
¿Tramposo e injusto? entonces, es humano. Robots sociales educativos y ética sintética
dc.contributor.author | Gómez-León, María Isabel | |
dc.date | 2024 | |
dc.date.accessioned | 2024-01-25T12:01:13Z | |
dc.date.available | 2024-01-25T12:01:13Z | |
dc.identifier.citation | Gómez-León, M.I (2024). ¿Tramposo e injusto? entonces, es humano. Robots sociales educativos y ética sintética. Revista Tecnología, Ciencia Y Educación. (27), 167–186 | es_ES |
dc.identifier.issn | 2444-250X | |
dc.identifier.uri | https://reunir.unir.net/handle/123456789/15941 | |
dc.description | Education begins to make use of emotional artificial intelligence through anthropomorphized educational robots. Evidence supports that students (men and women) are able to create emotional bonds with these agents. However, more and more cases of abusive disinhibition are being found in such interactions, such as racist or sexist degradation, abuse of power and violence. Some researchers warn about the negative consequences that this type of behavior can have in the long term, both for the ethical education of students and for robots that learn from these behaviors. Despite their relevance from a social and educational perspective, there are few studies that attempt to understand the mechanisms underlying these immoral or collectively harmful practices. The aim of this article is to review and analyze the research that has tried to study the unethical behavior of the human being through its interaction with anthropomorphic social robots. A descriptive bibliometric study was carried out following the criteria of the PRISMA declaration. The results show that, under certain circumstances, anthropomorphization and attribution of intentionality to robotic agents could be disadvantageous causing attitudes of rejection, dehumanization and even violence. However, a more realistic view of both the capabilities and limitations of these agents and the mechanisms that guide human behavior could help harness the great potential of this technology to promote students' moral development and ethical awareness. | es_ES |
dc.description.abstract | La educación comienza a hacer uso de la inteligencia artificial emocional a través de robots educativos antropomorfizados. La evidencia respalda que los estudiantes (hombres y mujeres) son capaces de crear vínculos emocionales con estos agentes. Sin embargo, cada vez se están encontrando más casos de desinhibición abusiva en este tipo de interacciones, como degradaciones racistas o sexistas, abuso de poder y violencia. Algunos investigadores alertan sobre las consecuencias negativas que este tipo de conductas pueden tener a largo plazo, tanto para la educación ética de los estudiantes como para los robots que aprenden de estas conductas. A pesar de su relevancia desde una perspectiva social y educativa, existen pocos estudios que intenten comprender los mecanismos que subyacen a estas prácticas inmorales o colectivamente dañinas. El objetivo de este artículo es revisar y analizar las investigaciones que han tratado de estudiar el comportamiento antiético del ser humano a través de su interacción con los robots sociales antropomórficos. Se realizó un estudio bibliométrico descriptivo siguiendo los criterios de la declaración PRISMA. Los resultados muestran que, bajo ciertas circunstancias, la antropomorfización y la atribución de intencionalidad a los agentes robóticos podría ser desventajosa, provocando actitudes de rechazo, deshumanización e incluso violencia. Sin embargo, una visión más realista tanto de las capacidades y limitaciones de estos agentes como de los mecanismos que guían la conducta humana podría ayudar a aprovechar el gran potencial de esta tecnología para promover el desarrollo moral y la conciencia ética de los estudiantes. | es_ES |
dc.language.iso | spa | es_ES |
dc.publisher | Revista Tecnología, Ciencia Y Educación | es_ES |
dc.relation.ispartofseries | ;nº 27 | |
dc.relation.uri | https://www.tecnologia-ciencia-educacion.com/index.php/TCE/article/view/18841 | es_ES |
dc.rights | openAccess | es_ES |
dc.subject | tecnología educativa | es_ES |
dc.subject | robots sociales | es_ES |
dc.subject | inteligencia artificial | es_ES |
dc.subject | engaño | es_ES |
dc.subject | abuso | es_ES |
dc.subject | deshonestidad | es_ES |
dc.subject | integridad académica | es_ES |
dc.subject | ética sintética | es_ES |
dc.title | ¿Tramposo e injusto? entonces, es humano. Robots sociales educativos y ética sintética | es_ES |
dc.type | article | es_ES |
reunir.tag | ~OPU | es_ES |
dc.identifier.doi | https://doi.org/10.51302/tce.2024.18841 |