Perguntas e respostas: especialistas dizem que interromper a IA não é possível – ou desejável

Notícias

LarLar / Notícias / Perguntas e respostas: especialistas dizem que interromper a IA não é possível – ou desejável

May 17, 2023

Perguntas e respostas: especialistas dizem que interromper a IA não é possível – ou desejável

Por

Por Lucas Mearian

Repórter Sênior, Computerworld |

À medida que as ferramentas de IA generativas, como o ChatGPT da OpenAI e o Bard do Google, continuam a evoluir em um ritmo vertiginoso, levantando questões sobre confiabilidade e até direitos humanos, os especialistas estão avaliando se ou como a tecnologia pode ser desacelerada e tornada mais segura.

Em março, o Future of Life Institute, organização sem fins lucrativos, publicou uma carta aberta pedindo uma pausa de seis meses no desenvolvimento do ChatGPT, o chatbot baseado em IA criado pela OpenAI, apoiada pela Microsoft. A carta, agora assinada por mais de 31.000 pessoas, enfatizou que sistemas de IA poderosos só devem ser desenvolvidos quando seus riscos puderem ser gerenciados.

"Devemos desenvolver mentes não-humanas que possam eventualmente nos superar, ser mais espertas, obsoletas e nos substituir? Devemos arriscar perder o controle de nossa civilização?" a carta perguntou.

O cofundador da Apple, Steve Wozniak, e o CEO da SpaceX e da Tesla, Elon Musk, juntaram-se a milhares de outros signatários ao concordar que a IA representa "riscos profundos para a sociedade e a humanidade, conforme mostrado por extensa pesquisa e reconhecido pelos principais laboratórios de IA".

Em maio, o Center for AI Safety, organização sem fins lucrativos, publicou uma carta aberta semelhante declarando que a IA representa um risco de extinção global comparável a pandemias e guerra nuclear. Os signatários dessa declaração incluíam muitos dos próprios cientistas e executivos de IA que trouxeram a IA generativa para as massas.

Espera-se também que os empregos sejam substituídos por IA generativa – muitos empregos. Em março, o Goldman Sachs divulgou um relatório estimando que a IA generativa e sua capacidade de automatizar tarefas podem afetar até 300 milhões de empregos em todo o mundo. E no início de maio, a IBM disse que interromperia os planos para preencher cerca de 7.800 cargos e estimou que quase três em cada 10 empregos de back-office poderiam ser substituídos por IA em um período de cinco anos, de acordo com um relatório da Bloomberg.

Enquanto as revoluções industriais anteriores automatizaram tarefas e substituíram trabalhadores, essas mudanças também criaram mais empregos do que eliminaram. Por exemplo, a máquina a vapor precisava de carvão para funcionar – e de pessoas para construí-la e mantê-la.

A IA generativa, no entanto, não é equivalente à revolução industrial. A IA pode aprender sozinha e já ingeriu a maior parte da informação criada por humanos. Em breve, a IA começará a complementar o conhecimento humano com o seu próprio.

Geoff Schaefer, chefe de IA responsável, Booz Allen Hamilton

Geoff Schaefer é chefe de IA responsável na Booz Allen Hamilton, um governo dos EUA e empreiteiro militar, especializado em inteligência. Susannah Shattuck é chefe de produto da Credo AI, um fornecedor de SaaS de governança de IA.

A Computerworld conversou recentemente com Schaefer e Shattuck sobre o futuro da IA ​​e seu impacto nos empregos e na sociedade como um todo. A seguir, trechos dessa entrevista.

Quais riscos a IA generativa representa?Shattuck: "Viés algorítmico. Esses são sistemas que estão fazendo previsões com base em padrões de dados nos quais foram treinados. E, como todos sabemos, vivemos em um mundo tendencioso. Esses dados nos quais estamos treinando esses sistemas geralmente são tendenciosos, e se não formos cuidadosos e ponderados sobre as maneiras como estamos ensinando ou treinando esses sistemas para reconhecer padrões nos dados, podemos involuntariamente ensiná-los ou treiná-los para fazer previsões tendenciosas.

"Explicabilidade. Muitos dos modelos [de linguagem grande] mais complexos que podemos construir hoje em dia são bastante opacos para nós. Não entendemos completamente exatamente como eles fazem uma previsão. E assim, quando você está operando em um - confiança ou ambiente de tomada de decisão muito sensível, pode ser desafiador confiar em um sistema de IA cujo processo de tomada de decisão você não entende totalmente. E é por isso que estamos vendo uma regulamentação crescente focada na transparência dos sistemas de IA.

"Vou dar um exemplo muito concreto: se vou implantar um sistema de IA em um cenário de assistência médica em que esse sistema fará certas recomendações a um médico com base nos dados do paciente, a explicabilidade é vai ser realmente crítico para aquele médico estar disposto a confiar no sistema.