Princípios e práticas para a construção de uma inteligência artificial mais confiável
Tonny
Martins, Gerente Geral da IBM América Latina
A
inteligência artificial (IA) está mudando a forma como as empresas operam,
desde como se comunicam com seus clientes, através de assistentes virtuais, até
a automatização dos fluxos de trabalho essenciais ou a gestão de segurança de
rede. Na América Latina, os dados sobre o uso da IA são fortes: 21% dos
profissionais de TI entrevistados na região observaram que seus negócios estão
utilizando IA agora, enquanto 43% relataram que suas organizações aceleraram a
implementação da IA como resultado da pandemia de COVID-19, de acordo com o AI
Adoption Index, realizado pela Morning Consult, a pedido de IBM.
Ao mesmo
tempo em que vejo essa adoção acelerada em empresas de tamanhos e indústrias
diferentes, que reconhecem o valor da IA como chave para enfrentar diferentes
desafios, cada vez mais essas organizações e o mercado em geral começam a se
preocupar com a forma como essa tecnologia está sendo usada. Hoje, essas
considerações são mais importantes do que nunca, porque a IA pode ter um
impacto significativo na vida das pessoas. É por isso que organizações e
provedores que usam IA têm a responsabilidade fundamental de construir sistemas
de confiança e garantir que a tecnologia seja projetada e utilizada de forma
responsável em todos os momentos durante o ciclo de vida da IA.
Por essa
razão, acreditamos em uma IA ética e confiável. Nesse sentido, a IBM
desenvolveu princípios, pilares e práticas multidisciplinares e
multidimensionais. Os princípios deixam claro que o propósito da inteligência
artificial é aumentar a inteligência humana; que a IA deve beneficiar toda a
sociedade; que os dados e insights gerados pertencem ao seu criador; e que
poderosas novas tecnologias, como a própria IA, devem ser transparentes,
explicáveis e mitigar preconceitos nocivos e inadequados.
A concepção
desses princípios e pilares deu origem a práticas que veem seus frutos na
integração de grupos de trabalho para discutir, recomendar e orientar o
desenvolvimento e a implementação da inteligência artificial. Através de um Conselho de Ética de
IA que fornece governança centralizada e autoridade
de tomada de decisão, uma cultura de ética tecnológica é fomentada por toda a
companhia. É pelo comprometimento com esses princípios que é possível ajudar a
prevenir que preconceitos, por exemplo, possam ser transmitidos a soluções de
IA que nos habilitam a enfrentar as necessidades das empresas para que elas
possam avançar na implementação da tecnologia com confiança.
Enquanto
empresa, procuramos desenvolver soluções especificamente projetadas para ajudar
companhias não apenas a estabelecer e executar estratégias de IA, mas também a
fomentar a confiança em seus sistemas de IA atuais e futuros e a colocá-los em
operação. A IA responsável não é um tema isolado de uma empresa ou outra: para
alcançá-la, é necessário um ecossistema aberto e diversificado.
E fazemos
isso trabalhando lado a lado com todo o ecossistema de inovação da América
Latina - incluindo nossos clientes, universidades e organizações da sociedade
civil, entre outros - para incentivar o uso responsável da tecnologia.
Trabalhamos juntos para garantir que a IA seja enriquecida a partir da
pluralidade do ecossistema de dados, com uma variedade de profissionais e
parceiros que possibilitam o feedback e a melhoria contínua nessa área. Cabe a
todos os atores garantir o uso ético das tecnologias através do trabalho
conjunto.
A IA tem o potencial de transformar a forma como vivemos e trabalhamos. Nossa responsabilidade é usá-la seguindo princípios éticos e transparentes para um futuro de negócios e uma sociedade melhor para todos.
Nenhum comentário