Modelos de Lenguaje a Gran Escala y Comunicación: Poderes, Límites y Disputas Informativas en la Era de la IA
DOI:
https://doi.org/10.11606/issn.2965-7474.v1i6p%25pPalabras clave:
Modelos lingüísticos, inteligencia artificial, comunicación digital, justicia informacional, ética algorítmicaResumen
Este artículo analiza cómo Los Modelos Lingüísticos a Gran Escala (LLM) han sido... Este texto analiza el impacto de los LLM (Modelos Lingüísticos) en el campo de la comunicación contemporánea al reconfigurar la producción simbólica, los flujos de información y la dinámica sociotécnica del discurso. Desde una perspectiva crítica, analiza la naturaleza algorítmica de estos sistemas, sus aplicaciones prácticas, los dilemas éticos y políticos que conllevan, así como las limitaciones estructurales y los riesgos para la diversidad comunicativa. Considerando autores como Alves, Bruno, Crawford y Coeckelbergh, argumenta que los LLM no solo automatizan los procesos lingüísticos, sino que también cuestionan el campo del significado, afectando la pluralidad, la autoría y la confianza pública. El texto propone directrices para una gobernanza ética y democrática de la inteligencia artificial, basada en la justicia informacional y el compromiso público.
Descargas
Referencias
ALAMU, O. Femi; AWORINDE, O. Halleluyah; ISHARUFE, Walter. Estudo Comparativo do Sistema de Divinação Ifá e Ciência da Computação. In: SILVA, Tarcízio. Comunidades, algoritmos e ativismos digitais: olhares afrodiaspóricos. São Paulo: LiteraRUA, 2020, p. 218-229.
ALVES, Lynn. Inteligência artificial e comunicação. São Paulo: Blucher, 2020.
BRUNO, Fernanda. Máquinas de ver, modos de ser: vigilância, tecnologia e subjetividade. Porto Alegre: Sulina, 2020.
BRYNJOLFSSON, Erik; MCAFEE, Andrew. The second machine age: work, progress, and prosperity in a time of brilliant technologies. Nova Iorque: W. W. Norton & Company, 2014.
BUOLAMWINI, Joy; GEBRU, Timnit. Gender shades: intersectional accuracy disparities in commercial gender classification. Proceedings of the 1st Conference on Fairness, Accountability and Transparency, v. 81, p. 77-91, 2018.
COECKELBERGH, Mark. Ética na inteligência artificial. São Paulo: Ubu Editora, 2023.
CRAWFORD, Kate. Atlas of AI: power, politics, and the planetary costs of artificial intelligence. New Haven: Yale University Press, 2021.
GARCIA, Ana C. B. Ética e inteligência artificial. Computação Brasil, n. 43, p. 14-22, 2020.
GESCHKE, Daniel.; LORENZ, Jan; HOLTZ, Peter. The triple‐filter bubble: using agent‐based modelling to test a meta‐theoretical framework for the emergence of filter bubbles and echo chambers. British Journal of Social Psychology, v. 58, n. 1, p. 129-149, 2019.
GOODFELLOW, Ian; BENGIO, Yoshua; COURVILLE, Aaron. Deep learning. Cambridge: MIT Press, 2016.
HAN, Byung C. No enxame: perspectivas do digital. Petrópolis: Vozes, 2018.
KITCHIN, Rob. Thinking critically about and researching algorithms. Information, Communication & Society, v. 20, n. 1, p. 14-29, 2017.
NOBLE, Safiya U. Algoritmos da opressão: como o Google lucra com o racismo.
Santo André: Rua do Sabão, 2021
TERRA, Carolina F; RAPOSO, João F. Relações públicas e comunicação orientadas aos dados: realidade ou necessidade contemporânea? Interfaces da Comunicação, v. 1, n. 1, p. 1-14, 2023.
TEN OEVER, Niels. “This is not how we imagined it”: technological affordances, economic drivers, and the internet architecture imaginary. New Media & Society, v. 23, n. 2, p. 344-362, 2021.
WAHLSTRÖM, Mattias; TÖRNBERG, Anton; EKBRAND, Hans. Dynamics of violent and dehumanizing rhetoric in far-right social media. New Media & Society, v. 23, n. 11, p. 3290-3311, 2021.
Descargas
Publicado
Número
Sección
Licencia
Derechos de autor 2025 Interfaces da Comunicação

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-CompartirIgual 4.0.