Alvárez Sanchez, Jose DaríoArévalo Oriz, Angie Valentina2024-10-212024-10-212024-07https://hdl.handle.net/20.500.12495/13082Esta tesis examina cómo la inteligencia artificial (IA) puede replicar y amplificar sesgos humanos afectando significativamente la justicia social. Analiza los fundamentos de la IA, explorando su definición y su intento por emular la inteligencia humana a través de algoritmos y modelos. Además, evalúa el software de predicción de delitos PredPol para mostrar cómo la vigilancia predictiva de la inteligencia artificial puede perpetuar injusticias al centrarse en la vigilancia de población históricamente marginada. Se abordan las consecuencias de la credibilidad desmesurada en la tecnología y la injusticia testimonial, argumentando que el exceso de confianza en la tecnología puede llevar a subestimar los testimonios humanos. A lo largo del escrito se destaca una mirada crítica y ética del uso de la IA en la sociedad actual.application/pdfAttribution 4.0 InternationalInteligenciaÉticaInjusticia testimonial100Sesgos Cognitivos e Injusticia Testimonial en la Inteligencia ArtificialTesis/Trabajo de grado - Monografía - PregradoIntelligenceEthicsTestonial injusticeinstname:Universidad El Bosquereponame:Repositorio Institucional Universidad El Bosquerepourl:https://repositorio.unbosque.edu.coCognitive Biases and Testimonial Injustice in Artificial IntelligenceAcceso abiertoinfo:eu-repo/semantics/openAccesshttps://purl.org/coar/access_right/c_abf2