Como uma máquina aprende e falha – uma gramática de erro para inteligência artificial
DOI:
https://doi.org/10.24215/23143924e054Palavras-chave:
inteligência artificial, aprendizagem de máquinas, viés algorítmico, erro estatístico, dados de treinamentoResumo
Trabalhando na convergência entre as ciências humanas e a informática, este texto visa delinear uma gramática geral de aprendizagem de máquinas e fornecer sistematicamente uma visão geral de seus limites, aproximações, enviesamentos, erros, falácias e vulnerabilidades. O termo convencional Inteligência Artificial é mantido, embora tecnicamente falando, seria mais preciso chamá-lo de aprendizagem mecânica ou estatística computacional, mas estes termos não seriam atraentes para as empresas, universidades e o mercado de arte. É feita uma revisão das limitações que afetam a IA como uma técnica matemática e cultural, destacando o papel do erro na definição da inteligência em geral. O aprendizado da máquina é descrito como consistindo de três partes: conjunto de dados de treinamento, algoritmo estatístico e aplicação do modelo (como classificação ou previsão) e três tipos de vieses são distinguidos: mundo, dados e algoritmo. Argumenta-se que os limites lógicos dos modelos estatísticos produzem ou amplificam o viés (que freqüentemente já está presente nos conjuntos de dados de treinamento) e levam a erros de classificação e previsão. Por outro lado, o grau de compressão da informação por modelos estatísticos utilizados na aprendizagem de máquinas causa uma perda de informação que resulta em uma perda de diversidade social e cultural. Em última análise, o principal efeito da aprendizagem mecânica na sociedade como um todo é a normalização cultural e social. Há um certo grau de mitologia e preconceito social em torno de suas construções matemáticas, onde a Inteligência Artificial deu início à era da ficção científica estatística.
Downloads
Referências
Bates, D.W. (2002). Enlightenment Aberrations: Error and Revolution in France. Ithaca, NY: Cornell University Press.
Bolukbasi, T. et al. (2016). Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings. arXiv.org. Disponible en: arxiv.org/abs/1607.06520
Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies, Oxford, UK: Oxford University Press.
Crawford, K. (diciembre, 2017). The Trouble with Bias. Conferencia magistral en la Annual Conference on Neural Information Processing Systems (NIPS). Video disponible en: https://www.youtube.com/watch?v=fMym_BKWQzk
Davison, J. (Junio, 2018). No, Machine Learning is not just glorified Statistics. Medium. Recuperado el 21 de marzo de 2019 de https://towardsdatascience.com/no-machine-learning-is-not-just-glorified-statistics-26d3952234e3
Deleuze, G. and Guattari, F. (1983). Anti-Oedipus. Minneapolis: University of Minnesota Press.
Eco, U. (1986). Semiotics and the Philosophy of Language. Bloomington: Indiana University Press.
Eco, U. (2000). Apocalypse Postponed, Bloomington, IN: Indiana University Press.
Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. New York: St. Martin’s Press.
Foucault, M. (2005). The Order of Things: An Archaeology of the Human Sciences. (2da Ed. reimpresa. London: Routledge.
Gitelman, L. (ed.) (2013). Raw Data is an Oxymoron. Cambridge, MA: MIT Press.
Guattari, F. (2013). Schizoanalytic Cartographies. London: Continuum.
Illusory Correlation. (Marzo, 2019). En Wikipedia: http://en.wikipedia.org/wiki/Illusory_correlation [Consultado el 21 de marzo de 2019]
Ingold, D. and Soper, S. (Abril, 2016). Amazon Doesn’t Consider the Race of Its Customers. Should It? Bloomberg. Recuperado el 21 de marzo de 2019 de: www.bloomberg.com/graphics/2016-amazon-same-day
Katz, Y. (2017). Manufacturing an artificial intelligence revolution (SSRN Scholarly Paper ID 3078224). Social Science Research Network. http://dx.doi.org/10.2139/ssrn.3078224
LeCun, Y. et al. (1989). Backpropagation applied to handwritten zip code recognition. Neural Computation, 1 (4), pp. 541–551. https://doi.org/10.1162/neco.1989.1.4.541
LeCun, Y. (Julio, 2018). Learning World Models: the Next Step towards AI. Conferencia magistral en la International Joint Conference on Artificial Intelligence (IJCAI), Stockholm, Sweden.
Leibniz, G. W. (1951). Preface to the General Science. 1677. Wiener, Leibniz: Selections.
Li, Guanpeng et al. (2017). Understanding error propagation in deep learning neural network (DNN) accelerators and applications. Proceedings of the International Conference for High Performance Computing, Networking, Storage and Analysis, ACM.
Lipton, Z.C. (2016). The Mythos of Model Interpretability. arXiv preprint. Disponible en: https://arxiv.org/abs/1606.03490
McQuillan, D. (Junio, 2018). Manifesto on Algorithmic Humanitarianism. Presentado en el Simposio Reimagining Digital Humanitarianism, Goldsmiths, University of London. Disponible en: https://osf.io/preprints/socarxiv/ypd2s/download
McQuillan, D. (2018). People’s Councils for Ethical Machine Learning. Social Media and Society, 4 (2). https://doi.org/10.1177%2F2056305118768303
Moretti, F. (2013). Distant Reading. London: Verso Books.
Murgia, M. (Abril, 2019). “Who’s using your face? The ugly truth about facial recognition”, Financial Times. Disponible en: https://www.ft.com/content/cf19b956-60a2-11e9-b285-3acd5d43599e
O’Neil, C. (2016). Weapons of Math Destruction, New York: Broadway Books.
Noble, S. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism, New York: NYU Press.
Pasquinelli, M. (2015). Anomaly Detection: The Mathematization of the Abnormal in the Metadata Society. Paper presentado en Transmediale. Disponible en: www.academia.edu/10369819. [Consultado el 21 de marzo de 2019].
Pasquinelli, M. (2017). Arcana Mathematica Imperii: The Evolution of Western Computational Norms. En: Maria Hlavajova et al. (eds.), Former West Cambridge, MA: MIT Press, pp. 281–293.
Vincent, J. (Octubre, 2018). Christie’s sells its first AI portrait for $432,500, beating estimates of $10,000. The Verge. Recuperado el 21 de marzo de 2019 de: dewww.theverge.com/2018/10/25/18023266
Virilio, P. (1994). The Vision Machine. London/Bloomington: British Film Institute/Indiana University Press.
Vogl, J. (2007). Becoming Media: Galileo’s Telescope. Grey Room, 29, pp. 14–25. https://doi.org/10.1162/grey.2007.1.29.14
Downloads
Publicado
Como Citar
Edição
Seção
Licença
Este trabalho está licenciado sob uma licença Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.