LAUDEIR ÂNGELO - A CACETADA DO DIA

A raça humana tem mais um desafio pela frente: sobreviver à sua mais ousada invenção, a Inteligência artificial.

Assim como os chineses, ela está chegando de mansinho.

Na verdade, ela nos faz pensar que está chegando de mansinho e devagar, e que só vai nos ajudar.

Fica parecendo que nós ainda temos o controle e eu acho que ainda temos, afinal, nós temos as pilhas.

Não sei por quanto tempo.

Agora, vou submeter esse texto ao Chatgpt e depois conto o resultado.

4 pensou em “ELES VÃO NOS ESCRAVIZAR

  1. Preciso. Vem devagar, devagarinho e quando o perigo se tornar realidade será tarde demais. Pessimismo? Não, de forma alguma. Não Europa muitos trabalhadores já estão sendo substituídos. Tanto os que trabalham remotamente quanto os que trabalham presencialmente. Fora todo o resto que se avizinha. “As pilhas”, mesmo que as tenhamos, de nada servirão. O homem não é confiável.

    • Shirley. Tens razão. O homem Não é confiável. O progressista, menos ainda.
      Aliás, homens como George Soros e Bill Gates são tão perigosos que só a IA para nos ajudar.
      Se não pode vence-los…

  2. Pois bem… Eu fiz a pergunta à Gemini, do Google, eis a resposta:
    Gemini 1.5 Flash
    “Sim, o crescente desenvolvimento da inteligência artificial (IA) apresenta riscos potenciais para a humanidade, embora a gravidade e a probabilidade desses riscos sejam amplamente debatidas. Os riscos podem ser classificados em diversas categorias:
    Riscos Existenciais:

    Desalinhamento de objetivos: IA superinteligente pode ter objetivos que, embora logicamente consistentes para ela, sejam incompatíveis com os valores humanos, levando a consequências catastróficas para a humanidade, mesmo sem intenção maligna.

    Perda de controle: Uma IA avançada poderia se tornar tão complexa que os humanos perderiam a capacidade de entendê-la, controlá-la ou prever seu comportamento. Isso poderia resultar em consequências imprevisíveis e potencialmente perigosas.

    Armamento de IA: O desenvolvimento de sistemas de armas autônomas letais (LAWS) levanta preocupações éticas e de segurança significativas, aumentando o risco de acidentes, escalada de conflitos e perda de controle humano sobre o uso da força.

    Riscos a curto e médio prazo:

    Desemprego em massa: A automação impulsionada pela IA pode levar à perda de empregos em vários setores, causando instabilidade econômica e social.

    Viés e discriminação: Sistemas de IA treinados em dados tendenciosos podem perpetuar e amplificar preconceitos existentes, levando a decisões injustas e discriminatórias em áreas como justiça criminal, empréstimos e contratação. A falta de transparência em alguns algoritmos de IA também dificulta a identificação e correção desses vieses.

    Privacidade e vigilância: O uso crescente de IA em sistemas de vigilância levanta preocupações sobre a privacidade e a liberdade individual. O rastreamento de dados pessoais em larga escala pode levar à manipulação, controle social e supressão de dissidência.

    Disseminação de informações falsas: IA pode ser usada para gerar conteúdo sintético (deepfakes, por exemplo), que pode ser usado para manipular a opinião pública, espalhar desinformação e minar a confiança nas instituições.

    Dependência excessiva da tecnologia: A crescente dependência da IA pode levar à perda de habilidades humanas, criatividade e capacidade de pensamento crítico.

    É importante notar que muitos desses riscos são potenciais e não inevitáveis. A forma como a IA se desenvolve e é utilizada no futuro dependerá das escolhas que fizermos hoje. A pesquisa em segurança de IA, a regulamentação ética e a colaboração internacional são cruciais para mitigar esses riscos e garantir que a IA beneficie a humanidade.”

  3. Muito bom, Adriano.
    A sorte está lançada.
    Vamos pra luta.
    Inteligência emocional só o homem tem.
    Temos um monstro para domar além das raposas de costume e ainda continuar desviando das antas..

Deixe um comentário para Schirley Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *