Menos de um ano atrás, a inteligência artificial parecia algo saído de um romance de ficção científica para muitas pessoas. Hoje, modelos de IA como ChatGPT, DALL·E e outros estão se tornando parte da vida cotidiana. E a tecnologia que permite que as máquinas vejam, leiam, pensem, escrevam e criem (ou pelo menos pareça que podem) está melhorando a cada dia.
Naturalmente, à medida que os recursos de IA continuam a melhorar, as preocupações também aumentam. A cada avanço feito, parece que há outro risco com o qual se preocupar. Para cada manchete positiva sobre uma história relacionada à IA, é fácil imaginar uma negativa em potencial - mesmo que a desgraça ainda seja hipotética - de deepfakes que podem minar a democracia a ataques cibernéticos crescentes, a mais trapaças (e menos aprendizado) na escola, à proliferação da desinformação, aos empregos sendo ocupados por máquinas.
Tenho pensado muito sobre esses riscos e as questões que eles representam para a sociedade. Eles precisam ser levados a sério. Mas há boas razões para acreditar que podemos lidar com eles: já fizemos isso antes.
Como explico em meu último post do Gates Notes, “ Os riscos da IA são reais, mas gerenciáveis ”, as IAs de hoje e de amanhã podem não ter precedentes, mas quase todas as grandes inovações do passado também introduziram novas ameaças que devem ser consideradas e controladas. Se formos rápidos, podemos fazer de novo. Se administrarmos os riscos da IA, podemos ajudar a garantir que eles sejam superados pelas recompensas (que acredito serem muitas ).
Sem comentários:
Enviar um comentário