Visão Geral Ética em Inteligência Artificial
À medida que a Inteligência Artificial (IA) se torna cada vez mais presente em diversos aspectos do nosso dia a dia, torna-se essencial refletir sobre as questões éticas que acompanham seu desenvolvimento e uso. Este artigo aborda os desafios éticos associados à IA, desde o viés em seus algoritmos até questões de privacidade de dados, passando pela necessidade de transparência e a facilidade de entender como esses sistemas tomam decisões. Também aborda como a IA está afetando nossas sociedades, economias e o ambiente ao nosso redor.
Este “breve” estudo foi impulsionado por duas razões principais. Primeiro, o rápido desenvolvimento da IA tem trazido enormes benefícios, como aprimoramentos na eficiência operacional e a capacidade de processar dados em grande escala, o que tem transformado áreas como saúde, finanças, marketing e segurança pública. Contudo, esses avanços não vêm sem seus desafios. Os riscos e dilemas éticos associados à IA, como os vieses nos algoritmos que podem reforçar preconceitos existentes, e as preocupações com a privacidade que acompanham a coleta e análise de dados pessoais em massa, exigem nossa atenção imediata.
Neste contexto, o escopo deste artigo é examinar como a IA pode ser orientada por princípios éticos sólidos que não apenas mitigam esses riscos, mas também promovem uma sociedade mais justa e equitativa. Ao fazer isso, pretendemos fornecer uma compreensão aprofundada de como esses desafios éticos podem ser abordados de forma eficaz através de regulamentações, práticas de desenvolvimento responsável e colaboração multidisciplinar.
Um exemplo prático da necessidade de vigilância ética em IA pode ser visto no uso de algoritmos de reconhecimento facial. Essas tecnologias, embora ofereçam grandes vantagens em termos de segurança, também levantam sérias questões sobre privacidade e viés racial, como demonstrado por estudos recentes que indicam taxas mais altas de erros de identificação em minorias étnicas.
Para aprofundamento futuro, recomenda-se a leitura de “Algorithms of Oppression” por Safiya Noble, que explora como os algoritmos de busca perpetuam estereótipos raciais e de gênero, e “Race After Technology” por Ruha Benjamin, que desvenda o “código de discriminação” embutido em muitas plataformas tecnológicas modernas. Além disso, “Privacy’s Blueprint” por Woodrow Hartzog critica as práticas de design que comprometem a privacidade do usuário, oferecendo uma análise detalhada sobre como melhorar as práticas de privacidade na era digital.
Este artigo busca não apenas contextualizar e analisar os problemas éticos enfrentados pela IA, mas também propor caminhos para que pesquisadores, desenvolvedores e formuladores de políticas possam implementar soluções eficazes que respeitem e protejam os direitos humanos fundamentais no desenvolvimento da IA.
Viés Algorítmico: Uma Ameaça à Equidade
No vasto campo da ética em Inteligência Artificial, o viés algorítmico representa uma questão crucial, refletindo as desigualdades e preconceitos intrínsecos que podem ser perpetuados ou mesmo exacerbados pelos dados e métodos de modelagem utilizados. O viés algorítmico ocorre quando um algoritmo produz resultados sistematicamente tendenciosos devido às suposições errôneas no processo de aprendizado de máquina. Essas tendências podem originar-se de diversas fontes, como dados de treinamento desbalanceados, práticas de modelagem inadequadas ou objetivos mal definidos na concepção do algoritmo.
Esses vieses são problemáticos porque não só comprometem a justiça e a equidade, mas também podem reforçar estereótipos sociais e perpetuar desigualdades. Por exemplo, um software utilizado por uma empresa para triagem de currículos pode favorer candidatos masculinos sobre femininos, refletindo os vieses presentes nos dados históricos de contratação. Essa situação ilustra como preconceitos implícitos nos dados podem levar a decisões automatizadas que amplificam desigualdades sociais.
Além disso, o viés algorítmico muitas vezes se manifesta de forma sutil e pode passar despercebido até mesmo pelos desenvolvedores dos sistemas. Por exemplo, em um estudo de 2019, Obermeyer et al. mostraram que um algoritmo usado no setor de saúde subestimava as necessidades médicas de pacientes negros porque utilizava custos de saúde passados como proxy para necessidades de saúde futuras. Este caso destacou como a escolha dos dados de treinamento pode levar a resultados que inadvertidamente discriminam grupos já desfavorecidos, refletindo desigualdades estruturais no acesso aos cuidados de saúde.
A questão do viés algorítmico é particularmente problemática porque os sistemas de IA são cada vez mais utilizados em áreas que têm impactos significativos na vida das pessoas, como no recrutamento de pessoal, crédito financeiro, vigilância policial e decisões médicas. Portanto, a responsabilidade de identificar e mitigar vieses é imensa, exigindo uma abordagem multidisciplinar que integre conhecimentos de ética, ciência de dados e domínios de aplicação específicos.
Para combater o viés algorítmico, é preciso adotar estratégias em várias etapas do desenvolvimento de algoritmos. Inicialmente, a diversificação das fontes de dados e a utilização de técnicas de pré-processamento para corrigir “preconceitos” nos dados são fundamentais. Durante a fase de modelagem, o emprego de técnicas de aprendizado justo (fair learning) e o desenvolvimento de modelos explicáveis podem ajudar os cientistas de dados a entender e corrigir desvios nos resultados dos algoritmos. Além disso, a fase de pós-implantação deve incluir auditorias contínuas e feedbacks dos usuários para ajustar os modelos em operação, garantindo que eles permaneçam justos e precisos ao longo do tempo.
A implementação de tais medidas não apenas ajuda a mitigar o impacto do viés algorítmico, mas também fortalece a confiança do público na tecnologia de IA. É fundamental que as empresas e organizações que desenvolvem ou utilizam tecnologias de IA estejam cientes dos riscos associados e se comprometam com práticas de desenvolvimento responsável. Isso inclui a transparência nos métodos de coleta e uso de dados, bem como nos processos de decisão algorítmica, permitindo que os usuários e reguladores entendam e questionem os resultados produzidos pelos sistemas de IA.
O desenvolvimento ético de tecnologias de IA, como a mitigação do viés algorítmico, não é apenas uma necessidade técnica, mas uma questão imperativa. As estratégias de mitigação do viés devem ser vistas como parte integrante do ciclo de vida do desenvolvimento de algoritmos, essenciais para garantir que a IA seja utilizada para promover uma sociedade mais justa e equitativa. A próxima seção sobre “Privacidade dos Dados” continua esta discussão, explorando como os desafios de confidencialidade e consentimento se entrelaçam com as questões de viés, sublinhando a importância de uma abordagem ética integrada no campo da inteligência artificial.
Privacidade dos Dados: O Desafio da Confidencialidade e Consentimento
Na era digital, especialmente no contexto do desenvolvimento e implementação de tecnologias de IA, a privacidade dos dados emerge como um desafio ético crítico. A capacidade crescente de coletar, armazenar e analisar dados pessoais em grande escala levanta preocupações sobre a confidencialidade e o consentimento, elementos fundamentais para a confiança pública nas aplicações tecnológicas e para a conformidade legal. Esta seção abordará as complexidades associadas à privacidade em sistemas de IA, discutindo os riscos, as regulamentações e as estratégias necessárias para proteger os indivíduos de abusos e garantir a proteção de suas informações pessoais.
A proteção da privacidade nos sistemas de IA envolve várias dimensões desafiadoras. A primeira grande dificuldade é a transparência na coleta de dados. Os usuários muitas vezes não têm clareza sobre quais dados são coletados, como são armazenados ou de que maneira são utilizados. Essa falta de transparência é agravada pela complexidade dos algoritmos de aprendizado profundo, que podem processar e interpretar dados pessoais de maneiras que não são facilmente compreensíveis, dificultando a obtenção de um consentimento verdadeiramente informado.
Além disso, a utilização de sistemas como o reconhecimento facial em contextos de segurança pública ou marketing pode ocorrer sem o consentimento explícito dos indivíduos capturados pelas câmeras. Essa prática levanta sérias questões sobre violações da privacidade e sobre a ética da vigilância automatizada. Um estudo de 2010 por Paul Ohm discute os perigos da reidentificação de indivíduos a partir de dados supostamente anonimizados, demonstrando que as técnicas tradicionais de proteção de privacidade podem falhar em proteger efetivamente as informações pessoais na era digital.
Em resposta a esses desafios, a regulamentação tem desempenhado um papel crucial na definição de padrões para a proteção da privacidade. O General Data Protection Regulation (GDPR) da União Europeia e a Lei Geral de Proteção de Dados Pessoais (LGPD) são exemplos de regulamentos que estabelece diretrizes rigorosas para o consentimento, a transparência e a gestão de dados. Ambas exigem que as empresas adotem uma abordagem de “privacidade desde a concepção”, o que significa que a proteção de dados deve ser uma consideração central no desenvolvimento de novos produtos e serviços. As leis também incentivam a minimização de dados, onde apenas as informações estritamente necessárias para os propósitos declarados são coletadas e retidas.
Para os desenvolvedores de IA, é essencial adotar práticas éticas que vão além da conformidade regulatória. Isso inclui a realização de avaliações de impacto sobre a privacidade antes de lançar ou implementar novos sistemas, identificando potenciais riscos à privacidade e desenvolvendo estratégias para mitigá-los. A tecnologia de encriptação homomórfica, por exemplo, permite o processamento de dados criptografados sem a necessidade de descriptografá-los, oferecendo um novo nível de proteção para os dados pessoais.
No entanto, apesar dessas medidas, os desafios persistem. A velocidade do desenvolvimento tecnológico frequentemente supera a capacidade das regulamentações de acompanhar, criando lacunas que podem ser exploradas de maneiras eticamente questionáveis. Por exemplo, o avanço das tecnologias de IA em big data pode permitir formas inovadoras de vigilância que ainda não estão claramente regulamentadas, possibilitando usos que podem ser intrusivos ou até discriminatórios.
A adoção de práticas de privacidade robustas e éticas é, portanto, requisito de primeira ordem nos atuais ciclos de desenvolvimento de propdutos com e para IA. As empresas e organizações que desenvolvem ou utilizam IA precisam estar na vanguarda da defesa da privacidade, promovendo não apenas a conformidade legal, mas também a responsabilidade ética. Isso inclui garantir que todas as partes interessadas – desde os desenvolvedores até os usuários finais – compreendam as implicações de privacidade das tecnologias empregadas e estejam equipadas para tomar decisões informadas sobre seu uso.
Assim, enquanto a IA continua a avançar e a se integrar em mais aspectos da vida cotidiana, a discussão sobre privacidade e ética torna-se cada vez mais urgente. O compromisso com a privacidade desde a concepção, as avaliações de impacto regulares e a adoção de tecnologias de proteção de dados são passos essenciais para garantir que os avanços tecnológicos promovam uma sociedade mais justa e segura, onde a privacidade é protegida e valorizada.
Transparência e Explicabilidade de Algoritmos
A transparência e a explicabilidade dos algoritmos de IA são importantes para construir confiança e facilitar a aceitação social dessas tecnologias avançadas. Ao permitir que os usuários compreendam como as decisões são tomadas, esses princípios ajudam a mitigar riscos de viés e violações de privacidade, garantindo que decisões automatizadas sejam justas, precisas e contestáveis.
A explicabilidade em IA refere-se à capacidade dos sistemas de explicar suas decisões de maneira compreensível aos humanos. Isso é fundamental em áreas sensíveis como diagnósticos médicos, aprovação de créditos e decisões judiciais, onde as consequências das ações automatizadas podem ser significativas. Modelos de IA que são transparentes em sua operação não só facilitam a identificação e correção de erros por desenvolvedores, mas também oferecem aos usuários finais meios para entender e, se necessário, contestar essas decisões.
Técnicas como LIME (Local Interpretable Model-agnostic Explanations) e SHAP (SHapley Additive exPlanations) têm sido desenvolvidas para melhorar a explicabilidade dos algoritmos. Essas metodologias proporcionam visões detalhadas sobre como as características individuais influenciam as previsões do modelo, ajudando a desvendar a complexidade dos sistemas preditivos e a promover uma maior transparência.
Além da explicabilidade dos modelos, a transparência na coleta e no uso de dados é igualmente importante. É essencial que os usuários e reguladores sejam claramente informados sobre quais dados são coletados, como são processados e armazenados, e para quais finalidades. Esta transparência é não apenas uma exigência de regulamentações como o GDPR e da LGPD, mas também uma prática ética que reforça o compromisso das organizações com a proteção da privacidade.
A implementação de registros de dados transparentes e auditáveis é uma prática recomendada que reforça a governança de dados. Esses registros garantem que todas as operações sejam documentadas e passíveis de revisão, fortalecendo assim a conformidade regulatória e permitindo que as práticas de coleta e uso de dados sejam constantemente avaliadas e melhoradas.
A transparência e explicabilidade não são apenas componentes técnicos essenciais; elas são também atributos éticos que dão suporte ao desenvolvimento responsável de/com IA. À medida que a tecnologia avança, a demanda por sistemas de IA que sejam compreensíveis e auditáveis só tende a aumentar. As estratégias atuais para melhorar esses aspectos em sistemas de IA devem continuar a evoluir, garantindo que os avanços tecnológicos promovam benefícios sociais e se mantenham em conformidade com os mais altos padrões éticos e regulatórios.
Dessa forma, a transparência e a explicabilidade são essenciais para garantir que a implementação de tecnologias de/com IA seja conduzida de maneira ética e responsável, promovendo uma sociedade mais justa e segura onde a tecnologia serve ao bem comum, mantendo a integridade e a confiança das partes envolvidas.
Impacto Social, Econômico e Ambiental da Inteligência Artificial
Com o avanço contínuo da IA e sua crescente integração em várias esferas do dia a dia, fica clara a necessidade de refletirmos não só sobre as vantagens que ela oferece, mas também sobre os efeitos que pode ter na sociedade, economia e meio ambiente. Esta seção procura examinar esses aspectos, enfatizando a necessidade de adotar uma perspectiva ética e abrangente durante o processo de criação e aplicação das tecnologias de IA.
A transformação do mercado de trabalho é uma das mais evidentes repercussões sociais da IA. A automação, potencializada por sistemas inteligentes, está reconfigurando o panorama do trabalho (emprego, papéis, responsabilidades e tarefas), substituindo atividades, atribuições e afazeres rotineiros e criando novas oportunidades em setores como análise de dados, marketing e desenvolvimento de software. Este cenário apresenta desafios significativos para políticas de emprego e sistemas educacionais, que precisam se adaptar rapidamente para equipar a força de trabalho com as habilidades necessárias para prosperar em um ambiente cada vez mais tecnológico.
Do ponto de vista econômico, a IA promete aumentar a eficiência e reduzir custos em diversas indústrias, contribuindo para o crescimento econômico e inovação. No entanto, há também preocupações pertinentes sobre a concentração de riqueza e poder nas mãos de poucas empresas que dominam as tecnologias avançadas e possuem grandes volumes de dados. Isso levanta questões sobre desigualdades econômicas e a necessidade de regulação para assegurar uma distribuição equitativa dos benefícios gerados pela IA.
Paralelamente, o impacto ambiental da IA é uma realidade. Embora a tecnologia possa ajudar a otimizar o uso de recursos naturais e reduzir desperdícios, a infraestrutura necessária para suportar sistemas de IA, como data centers, é intensiva em termos de consumo de energia. Com modelos de aprendizado de máquina cada vez mais complexos, a demanda por capacidade computacional e, consequentemente, por energia, tem aumentado, resultando em uma pegada de carbono substancial que não pode ser ignorada.
Diante desses desafios, é preciso desenvolver políticas e regulamentações que não só promovam a inclusão digital e o desenvolvimento de habilidades, mas também governem o uso ético da IA. Tais políticas devem incluir medidas para proteger contra o desemprego tecnológico, garantir a privacidade e segurança dos dados e promover práticas de desenvolvimento sustentável dentro da indústria da IA.
Além disso, a adoção de energias renováveis e o desenvolvimento de algoritmos eficientes, que exigem menos energia para operar, são abordagens que se apresentam com perspectivas interessantes para mitigar o impacto ambiental dos sistemas de IA. A gestão responsável de resíduos eletrônicos e a reciclagem de componentes de hardware também são fundamentais para reduzir a pegada ecológica associada à tecnologia por conta da evolução no desenvolvimento de hardware específicos para extrair um melhor desempenho dos modelos de IA.
Ou seja, enquanto a IA tem o potencial de transformar a sociedade de maneiras profundamente positivas, temos que estar atentos para que sua implementação seja acompanhada de considerações éticas rigorosas para garantir que seus impactos sejam benéficos e justamente distribuídos. As discussões sobre as implicações sociais, econômicas e ambientais da IA são fundamentais para moldar um futuro no qual a tecnologia promove o bem-estar humano e sustentabilidade ambiental, e não apenas avanços tecnológicos. A reflexão contínua sobre esses temas ajudará a orientar o desenvolvimento da IA de maneira que seja socialmente responsável e ecologicamente consciente.
IA e Direitos Humanos
Conforme já temos discutido neste artigo, a crescente presença da IA em nossas vidas diárias tem imposto a todos nós a necessidade de avaliar suas implicações não apenas com questões éticas, de justiça e equidade mas também para os direitos humanos. Nesta seção analisaremos as interações complexas entre IA e direitos humanos, destacando especialmente as questões de privacidade, discriminação e igualdade de acesso.
A privacidade é uma das principais preocupações relacionadas aos direitos humanos na era da IA. Com sua capacidade de processar e analisar grandes volumes de dados, a IA pode ser usada para monitorar, rastrear e inferir informações pessoais de formas anteriormente inimagináveis. Isso traz à tona questões críticas sobre o consentimento e a vigilância, sublinhando a necessidade de regulamentações robustas, como o GDPR e a LGPD, que buscam proteger a privacidade dos indivíduos. No entanto, a evolução constante das tecnologias de IA requer uma adaptação contínua desses frameworks legais para manter-se eficaz frente aos novos desafios.
Outro aspecto crucial é a discriminação algorítmica, onde IA pode replicar ou até intensificar preconceitos existentes. Essa tendência é particularmente evidente em sistemas de reconhecimento facial e algoritmos utilizados em decisões de crédito e emprego, que podem perpetuar desigualdades se não forem devidamente auditados e regulamentados. Combater a discriminação algorítmica exige transparência, a possibilidade de auditoria dos sistemas de IA e leis que responsabilizem as entidades que os utilizam.
Além disso, a questão do acesso à tecnologia de IA também é uma preocupação de direitos humanos, pois a exclusão digital pode agravar as desigualdades sociais e econômicas. É vital que as políticas fomentem a inclusão digital e garantam que os avanços em IA não deixem ninguém para trás. Isso inclui o desenvolvimento de políticas educacionais que preparem todas as camadas da população para um mundo cada vez mais digitalizado e a criação de tecnologias que atendam às necessidades das populações marginalizadas.
É nosso papel e responsabilidade trabalhar com afinco para podermos assegurar que a IA seja desenvolvida e implementada com uma consideração ética rigorosa por esses direitos. Isso requer uma governança cuidadosa e o compromisso contínuo de todas as partes interessadas, incluindo desenvolvedores, legisladores e a sociedade civil, para monitorar, avaliar e guiar o uso da IA de maneiras que promovam a equidade, a justiça e o respeito pela dignidade humana.
Para aprofundar-se mais no assunto, obras como “The Age of Surveillance Capitalism” de Shoshana Zuboff, “Weapons of Math Destruction” de Cathy O’Neil e “Automating Inequality” de Virginia Eubanks são leituras obrigatórias. Esses trabalhos oferecem insights críticos sobre como a tecnologia está reconfigurando questões de privacidade, equidade e acesso de maneira que pode transformar radicalmente tanto os direitos individuais quanto a estrutura social.
Conclusão: Em Direção a uma IA Ética e Responsável
Ao explorarmos as intersecções complexas entre ética e tecnologia no contexto da Inteligência Artificial (IA), este artigo proporcionou uma visão abrangente sobre questões críticas como viés algorítmico, privacidade dos dados, transparência, impacto social, econômico e ambiental, além das implicações da IA nos direitos humanos. Esta conclusão busca sintetizar as lições aprendidas ao longo dos debates e delineia os próximos passos para um desenvolvimento ético e responsável da IA.
Neste artigo, buscamos identificar e discutir as complexidades da ética e da tecnologia na esfera da Inteligência Artificial, abordando temas como o viés algorítmico, a privacidade dos dados, a transparência e os impactos sociais, econômicos e ambientais que ela carrega. Também examinamos como essas tecnologias afetam os direitos humanos.
A ética em IA transcende as questões técnicas, situando-se no centro das considerações sociais e morais. Ficou evidente que, sem uma dedicação consciente aos princípios éticos, as tecnologias de IA têm o potencial de perpetuar injustiças e ampliar desigualdades. Práticas como auditorias de algoritmos, regulamentações robustas para a proteção de dados, e abordagens transparentes e explicáveis são ferramentas indicadas para fomentar a confiança do público e assegurar que a IA contribua positivamente para a sociedade.
Olhando para o futuro, a importância de uma abordagem multidisciplinar na ética da IA apresenta-se como uma boa escolha. A colaboração entre cientistas da computação, especialistas em ética, legisladores e a sociedade civil é uma boa escolha para desenvolver padrões e práticas que respondam eficazmente aos desafios éticos emergentes e contínuos. Além disso, a educação em IA precisa ser expandida para incluir não só habilidades técnicas, mas também uma sólida formação ética para desenvolvedores e usuários dessas tecnologias.
A necessidade de uma ação coordenada de todos os stakeholders é clara. Universidades, empresas de tecnologia, órgãos governamentais e organizações internacionais devem não apenas adotar práticas éticas, mas também apoiar pesquisas que investiguem as implicações mais amplas da IA. A participação ativa na formulação de políticas é igualmente fundamental para garantir que as leis acompanhem o ritmo rápido da inovação tecnológica.
Para aqueles que desejam se aprofundar mais nos temas discutidos, recomenda-se a consulta a trabalhos como “Ethics of Artificial Intelligence and Robotics” pela Stanford Encyclopedia of Philosophy, que oferece uma visão filosófica abrangente sobre a ética da IA; “Weapons of Math Destruction” de Cathy O’Neil (já citado anteriormente), que explora como certos algoritmos reforçam a desigualdade; e “Automating Inequality” de Virginia Eubanks (também já citado anteriormente), que examina como a tecnologia pode aprofundar as divisões sociais. Além disso, “Hello World: Being Human in the Age of Algorithms” por Hannah Fry fornece uma exploração acessível das implicações humanas da tecnologia de IA.
Encerrando, este artigo sublinha a necessidade urgente de um diálogo contínuo e de um compromisso com princípios éticos rigorosos para guiar o desenvolvimento da IA. Com o comprometimento e a colaboração de todos os envolvidos, podemos orientar a evolução da IA para que esta não apenas avance tecnologicamente, mas também promova um futuro no qual a tecnologia amplie e enriqueça a experiência humana de maneira justa e digna.
Referências para Leituras Futuras
- Ziad Obermeyer et al. Dissecting racial bias in an algorithm used to manage the health of populations. Science366, 447-453(2019). DOI:10.1126/science.aax2342.
- Lemley, Mark A. and Casey, Bryan, Fair Learning (January 30, 2020). Available at SSRN: https://ssrn.com/abstract=3528447.
- Ohm, Paul, Broken Promises of Privacy: Responding to the Surprising Failure of Anonymization (August 13, 2009). UCLA Law Review, Vol. 57, p. 1701, 2010, U of Colorado Law Legal Studies Research Paper No. 9-12, Available at SSRN: https://ssrn.com/abstract=1450006.
- Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). “Why Should I Trust You?”: Explaining the Predictions of Any Classifier. NAACL-HLT 2016 - 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Proceedings of the Demonstrations Session, 97–101.
- Christoph Molnar, “Interpretable Machine Learning: A Guide for Making Black Box Models Explainable”, 2023.
- Zachary C. Lipton. 2018. The mythos of model interpretability. Commun. ACM 61, 10 (October 2018), 36–43.
- Jason Furman and Robert Seamans. AI and the Economy. Innovation Policy and the Economy 2019 19:1, 161-191.
- Peter Stone et al. Artificial Intelligence and Life in 2030: The One Hundred Year Study on Artificial Intelligence. Report of the 2015-2016 Study Panel, Stanford University, Stanford, CA. 2016.
- Webb, Michael, The Impact of Artificial Intelligence on the Labor Market (November 6, 2019). Available at SSRN: https://ssrn.com/abstract=3482150 or http://dx.doi.org/10.2139/ssrn.3482150.
- David Danks and Alex John London. 2017. Algorithmic bias in autonomous systems. In Proceedings of the 26th International Joint Conference on Artificial Intelligence (IJCAI’17). AAAI Press, 4691–4697.
- Ninareh Mehrabi, Fred Morstatter, Nripsuta Saxena, Kristina Lerman, and Aram Galstyan. 2021. A Survey on Bias and Fairness in Machine Learning. ACM Comput. Surv. 54, 6, Article 115 (July 2022), 35 pages.
- Wickramanayake, B., Ouyang, C., Moreira, C., Xu, Y. (2022). Generating Purpose-Driven Explanations: The Case of Process Predictive Model Inspection. In: De Weerdt, J., Polyvyanyy, A. (eds) Intelligent Information Systems. CAiSE 2022. Lecture Notes in Business Information Processing, vol 452. Springer, Cham.
- Houd, A. el, Hachem, C. el, & Painvin, L. (2021). Deep Learning Model Explainability for Inspection Accuracy Improvement in the Automotive Industry.
- Ouyang, C., Sindhgatta, R., & Moreira, C. (2021). Explainable AI Enabled Inspection of Business Process Prediction Models.
Leave a Comment