Como a diversidade de dados e práticas éticas impulsionam a engenharia responsável de IA
A jornada de engenharia de Karen Panetta a levou a identificar preconceitos críticos em sistemas de reconhecimento facial e a defender uma tecnologia transparente que protege o bem-estar humano.
Por
- Esther Shittu, redatora de notícias
- Shaun Sutner, diretor sênior de notícias
Publicado:01 de julho de 2025
O caminho para o diploma de engenharia de Karen Panetta começou com o conselho de seu pai de que seu hábito de fazer compras precisava ser sustentado por uma sólida carreira financeira.
Depois de passar algum tempo construindo computadores e projetando CPUs, o bolsista do IEEE e reitor de pós-graduação em engenharia da Universidade Tufts procurou ingressar na academia. Porém, ela percebeu que havia um grande problema na área de engenharia.
“Eles disseram:'Estamos contratando você para ser um mentor para mulheres' e, quando cheguei à minha primeira aula, não havia mulheres'”, contou Panetta no último episódio do podcast Targeting AI da Informa TechTarget. "Foi assim que me tornei um mentor, proponente e defensor acidental para trazer públicos inclusivos para a engenharia."
Essa paixão mais tarde foi transferida para a tecnologia de IA quando ela começou a trabalhar para resgatar crianças do tráfico humano.
“Percebi que todos os conjuntos de dados treinados para reconhecimento facial foram obtidos diretamente, com ambas as orelhas à mostra”, disse Panetta. “O banco de dados foi retirado principalmente de pessoas de cor e de bancos de dados criminais. Então foi tipo, OK, há preconceito aí.”
Em resposta, Panetta e sua equipe criaram um banco de dados diversificado de pessoas de todo o mundo, com idades entre 3 e 78 anos. As imagens mostram pessoas em diferentes cenários, seja com óculos escuros, máscaras ou diferentes rotações de cabeça.
“A IA treinada com dados muito puros não vai funcionar no mundo real”, disse Panetta. “O mundo real não se traduz automaticamente em IA.”
Panetta acrescentou que a tecnologia de IA também precisa ser ética, o que significa não prejudicar as pessoas ou os seus meios de subsistência.
“Quando falamos sobre IA ética, estamos falando sobre como a coletamos, os direitos das pessoas e como vamos usá-la”, disse ela.
Enquanto isso, a IA responsável consiste em ser capaz de explicar por que o sistema de IA tomou a decisão que tomou, disse ela.
Esther Shittu é redatora de notícias e apresentadora de podcast da Informa TechTarget que cobre software e sistemas de IA. Shaun Sutner é diretor sênior de notícias da equipe de gerenciamento de informações da Informa TechTarget, conduzindo a cobertura de IA, tecnologias analíticas e de gerenciamento de dados, além de grandes tecnologias e regulamentações federais. Ele é um jornalista veterano com mais de 30 anos de experiência em notícias. Juntos, eles cobrem o podcast Targeting AI.
Aprofunde-se nas tecnologias de IA
-
11 exemplos e casos de uso de IA agente do mundo real
Por:Mary Pratt
-
A visão de IA empresarial da IBM para personalização e colaboração
Por:Esther Shittu
-
A CEO da Black Girls Code afirma que a diversidade na IA inclui todos
Por:Esther Shittu
-
Como a Cerebras aborda a competição contra a Nvidia
Por:Esther Shittu
Tecnologia da Internet das Coisas
- Próximos eventos que você não quer perder!
- Como os drones mudarão nossa experiência de varejo, nossas cidades e nossos céus
- Verizon e AT&T apostam em LTE Cat M1 para IoT
- A necessidade de código aberto na borda (eBook)
- Gastos com IoT chegarão a US $ 1,3 trilhão até 2020 em investimento em hardware
- A CII visa impulsionar a adoção de IoT por meio de capacitação de usuários finais
- Matéria:O Futuro das Casas Inteligentes
- Firma de segurança de OT Claroty expande o escopo do foco de rastreamento de IoT
- Por que as principais corporações americanas têm lutado na China:Home Depot
- Industrial Internal Consortium Journal of Innovation:IOT e Digital Transformation in Business