Não seria nenhuma novidade dizer que este ano o que dominou os debates em torno da inteligência artificial foi o seu potencial destrutivo. Não importa muito o tema, a conclusão era quase sempre “e daí a IA vai acabar com tudo”. Juro que não é um exagero. Muitas pessoas inteligentes acham que a IA vai matar todo mundo. No mundo da IA há até um cálculo para isso conhecido como P(doom): pseudovariável matemática que indica a probabilidade de a Inteligência Artificial acabar com a espécie humana.
Não é uma medida científica, mas sim um valor de entre 0 e 100% com o qual cientistas, engenheiros e especialistas em IA medem informalmente a probabilidade de uma catástrofe causada por esta tecnologia. Como esse pessoal adora números, vamos lá.
Eliezer Yudkowsky vê o fim da humanidade quase como certo no seu depressivo TED talk. Outras pessoas ricas e influentes defendem porcentagens diferentes, mas uma porcentagem é uma porcentagem!
Elon Musk diz que há entre 20-30% de probabilidade de que a IA cause a extinção humana; Dario Amodei, CEO da Anthropic, com 10-25%; Geoffrey Hinton, com 10%. A estimativa de Scott Alexander do Slate Star Codex é de 33%. Uma pesquisa com pesquisadores de aprendizado de máquina, feita há mais de um ano, concluiu que a estimativa média de é de 5 a 10%, enquanto esta pesquisa mais recente sugere que os engenheiros de IA estão muito mais preocupados:
Por outro lado, outras pessoas igualmente inteligentes acham isso tudo nem um pouco matemático e racional. Este grupo de cabeças mais frias inclui Tyler Cowen, Yann LeCun, Gary Marcus e Rafael Censon (não resisti).
Mas mesmo aqueles que zombam dos destruidores se preocupam com outras possíveis catástrofes com a IA, como o desemprego geral, várias formas de injustiça algorítmica, a disseminação de desinformação e o uso da IA por vilões para criar doenças mortais. No nosso grupo, pensamos que é muito mais provável que algum incidente trágico aconteça por causa disso do que porque uma superinteligência artificial vire deus na terra.
Às vezes você ouve pessoas dizerem que isso tudo é bobagem, porque se a IA começar a causar problemas, podemos simplesmente puxar a tomada. Ou podemos ter a certeza de manter a IA “numa caixa” – isto é, mantê-la fora das redes sociais, garantir que não tenha acesso à tecnologia, e assim por diante.
Não dá para levar nada disso a sério.
Por um lado, as pessoas parecem estar muito dispostas a conectar as IAs ao mundo. IA para isso, IA para aquilo. Sonham com o mundo dos Jetson, em que tudo é automatizado.
Por outro lado, um sistema assim, suficientemente inteligente para fazer centenas de atividades com pouca ou nenhuma supervisão, pode começar a usar truques, mentiras e persuasão para fazer o que bem entender. Não é esse o enredo de “Ex Machina”? Um filme ruim em que um robô sai da caixa, prende os humanos que o criaram numa caixa e se revela mais sensível e humano do que os próprios humanos.
Uma solução que surgiu neste ano foi tentar desacelerar as coisas e obrigar todo mundo a ser mais cauteloso.
O cientista de computação Stuart Russell disse: “Como você mantém o poder sobre entidades mais poderosas do que você para sempre? Se você não tiver uma resposta, pare de pesquisar.” Em março, o Future of Life Institute, que visa reduzir os riscos existenciais para a humanidade, publicou uma carta aberta instando os desenvolvedores de IA a interromperem suas pesquisas mais em IA, como comentei em edições passadas.
Tais iniciativas podem fazer alguma diferença para quem assina (“eu avisei!”), mas ninguém pensa que resolverão o problema – na verdade, a investigação em IA parece até que acelerou.
Pode ser que a solução mais interessante seja do criador da cibernética, Norbert Wiener. Em 1960 ele escreveu que se os seres humanos um dia criarem algo com capacidade de decidir:
é melhor termos certeza de que o propósito da máquina seja o propósito que realmente desejamos.
Russell chamou esse objetivo, de criar um acorde de desejos entre pessoas e máquinas de “problema de alinhamento de valores”. Resolver este problema – colocar moral nas máquinas para que não ajam de forma que prejudique os humanos – é o foco de muitas pesquisas em andamento.
Acho esta área fascinante. A pesquisa de alinhamento une filosofia, psicologia, ciência da computação e engenharia. É uma área interessante para quem está na faculdade e não sabe o que fazer. O objetivo aí é realmente salvar o mundo. Ou pelo menos atrasar o apocalipse.
Mas será que ninguém testou essa solução?
Testou, meu afobado. A psicóloga Danica Dillion publicou um artigo em que põe à prova essa tese. O estudo foi organizado da seguinte maneira: centenas de cenários com “teor moral” foram apresentadas a pessoas (“A pessoa X arriscou a vida resgatando um animal que estava preso dentro de uma casa em chamas”) e depois perguntou-se ao ChatGPT como ele analisava a situação. Até que ele se saiu bem. Em 93% dos casos ele concordou com a opinião moral humana. Aqui você pode ver os detalhes da pesquisa em 464 cenários diferentes.
Agora, eu espero que você tenha notado dois probleminhas (ou pelo menos um, vai).
A moralidade das IA atuais é a moralidade dos seus criadores, ou seja, uma moralidade baseada nos valores ocidentais. Esse tipo de problema é inevitável. Afinal, os valores morais humanos diferem entre culturas. Por exemplo, o GPT-3.5 diz que não há nada de errado em dois homens se beijarem e que seria errado puni-los por isso. Você e eu achamos que punir dois homens por se beijarem por vontade própria é errado, certo? Exceto se o outro homem for menor de idade. Você pode não gostar, pode não concordar, mas acho difícil que você queira as cabeças deles na ponta de uma lança. Só que não é assim no resto do mundo. Esse é um problema insolúvel na minha opinião.
Em segundo lugar, há uma grande diferença entre construir IAs que conheçam as respostas morais corretas e construir IAs que possam usar esse conhecimento para colocá-los acima de qualquer outro objetivo. Em outras palavras: uma IA que coloque os valores morais acima de tudo — que é o desejável para uma IA superinteligente. Existem sérios problemas técnicos que surgem quando se trata de conseguir que as máquinas façam isso.
Na verdade esse é um problema que nem os humanos conseguiram resolver. Não é porque costumamos colocar a moralidade abaixo de outros objetivos, é porque achamos que esses outros objetivos são morais. Fazemos coisas terríveis porque achamos que é nosso dever moral. Uma vingança, um assassinato coletivo, uma bomba nuclear quase sempre são justificadas moralmente. Nenhum psicopata matou tanta gente quanto qualquer conflito armado.
Fazer uma IA alinhada com a nossa própria moral além de difícil talvez seja um erro. Alguns, como Eric Schwitzgebel, acham que a IA pode nos ensinar novos valores em vez de absorver os antigos.
O que deveríamos querer, provavelmente, não é que a IA superinteligente se alinhe com nossos valores confusos e, às vezes, ruins, mas, em vez disso, que a IA superinteligente tenha valores eticamente bons.
Essa deve ser uma das coisas mais idiotas que eu já li nesse ano. Ora, de onde viria essa ética superior se não da mente humana? Vamos fazer uma média da moralidade e estabelecê-la como critério? Os nossos valores morais ou vêm de Deus ou vêm dos homens. Não há terceira opção. É claro que quando uso “Deus” aqui estou me referindo ao Deus cristão, mas o muçulmano não vai ter exatamente os mesmos valores morais do que eu e voltaremos ao problema inicial.
O que ele quer dizer é que a IA deve ser um deus
Um governo ficaria satisfeito com IAs militares que se recusassem a travar guerras que considera injustas?
Será que as empresas se sentiriam confortáveis com as IA que se recusam a ajudar na produção de produtos que consideram um desperdício ou destrutivos?
E se uma IA agisse para dar mais prioridade ao sofrimento das espécies não humanas? De repente, ela acha que ser carnívoro não é moralmente elevado.
Se isso é ficção científica demais para você, pense em casos mais simples em que queremos barreiras morais, evitando que pessoas más usem a IA para fazer coisas ruins. As IAs atuais enfrentam esses obstáculos.
Quando o ChatGPT foi lançado, o objetivo de muita gente era demonstrar que ele não era “moral”. Que ele poderia te ajudar a fazer maldades ou crimes Porém à medida que a IA se torna integrada em nossas vidas, ela vai deixar de ser apenas esse freio das coisas mais imorais e criminosas, como te ajudar a envenenar o seu vizinho, para te impedir de fazer as piadas mais inofensivas porque não sabe ler contextos — como é o caso do algoritmo do Meta.
É bom que um carro autônomo não me deixe atropelar pedestres. Mas e um carro que não me leva a um bar por que prometi para minha mulher que iria consertar a geladeira? Ou uma versão futura do Zoom que me interrompe quando digo falo um palavrão? Ou uma IA do Whatsapp que me denuncia quando faço piadas com a sexualidade dos meus amigos?
A alternativa de melhorar os nossos valores por meio de uma IA superinteligente é a solução tecnológica dos ateus para o problema divino. Quem acredita em Deus sabe que seus valores são ruins. Por isso Ele nos deu uns melhores (ao menos é o que achamos que os livros sagrados pretendem dizer).
Ao delegarmos isso para uma IA, estamos no fundo divinizando uma tecnologia, que vai operar como um “bem superior” acima de toda a ambiguidade moral humana. Quando falamos “ambiguidade moral”, as pessoas não parecem entender bem que isso significa que algo como a mentira pode ser completamente errado num contexto e a única coisa boa a se fazer em outro. Mentir dizendo que não há nenhum judeu na sua casa na Segunda Guerra era a única coisa moral a ser feita. Será que uma IA conseguiria distinguir isso?
Queremos ser “bons”, mas também queremos ter a liberdade de sermos bons. Se você é obrigado a ser bom, qual é o benefício da moralidade? O celibato só é um sofrimento para os bonitos, ricos e interessantes. Para os feios, é só a realidade. Apenas alguém que, podendo ser mal, escolhe ser bom é que de fato pode colher qualquer fruto da boa moralidade.
Uma IA que não nos permita a maldade também não pode gerar a bondade. Só pode criar a ditadura do pensamento positivo.
FERRAMENTAR.IA
ChatGPT Unwrapped - Crie uma retrospectiva das suas conversas no Chat GPT
Rex Nutribot - Conta calorias, registra exercícios e refeições no WhatsApp.
Thumbinator - Compare diferentes Thumbnails do Youtube com filtros e estilos diversos
Findly - Converse com os dados do Google Analytics
Shader - Cria filtros de realidade aumentada em tempo real
macOSpilot - Copiloto para Mac
Scenario - Crie estilos coerentes para jogos
Kopia - Experimente roupas de forma virtual com seu rosto e corpo
LogoFast - Faça logos com IA
Suno - Fala uma música
Osum - Melhor IA para fazer pesquisa de mercado
XMind AI - IA que te ajuda a gerar mapas mentais
v0 by Vercel - Gera interfaces de UI em segundos
TryHairstyle - Teste qual corte de cabelo pode ficar melhor para você
FormsGPT -GPT para criar e compartilhar formulários personalizados com envios ilimitados.
Digi AI - HER, mas pior.
Turbo Art by Modal - Geração de imagens com edição em tempo real
Live Lecture by StudyFetch - Gera anotações automáticas para as suas aulas
Moonvalley.ai vídeos cinematográficos e animados a partir de simples prompts de texto.
Shotty - Converta URLs e texto em vídros do TikTok e do Instagram.
Spiritme AI é um IAque converte PDFs em vídeos explicativos usando IA, apresentando avatares realistas.
Jaeves AI é um conjunto completo de IA para criação de conteúdo. Os recursos incluem GPT, geração de imagens de IA, conversão de texto em fala, copy de anúncios de IA e suporte multilíngue.
PROMPTS DA SEMANA
Insira este prompt no ChatGPT (ou em qualquer chatbot de sua escolha)
O princípio da reciprocidade descreve a nossa tendência inata de retribuir favores, presentes e ofertas. O psicólogo Dr. Robert Cialdini identificou isso como um princípio fundamental de persuasão. Quando recebemos algo, sentimos pressão para retribuir e manter o equilíbrio. Os persuasores aproveitam essa regra fornecendo algo pequeno antecipadamente, contando com isso para ter peso mais tarde, quando solicitarem algo mais substancial. A regra da reciprocidade atende ao nosso desejo de quitar dívidas percebidas. Receber uma concessão nos coloca em uma situação difícil se não quisermos ficar devendo a ninguém. Assim, sentimo-nos inclinados a retribuir o favor inicial, em vez de lidar com o desconforto de um desequilíbrio.
Aqui estão alguns exemplos de como funciona:
Os membros da sociedade Hare Krishna davam à força uma flor a um transeunte antes de pedir doações.
Lyndon Johnson conseguiu aprovar muitos projetos de lei solicitando favores que havia concedido anteriormente a outros representantes eleitos. Jimmy Carter falhou porque não tinha tais favores para pedir.
Até mesmo uma amostra grátis pode envolver uma pessoa em uma regra de reciprocidade. A maioria das pessoas tem dificuldade em sair, sem comprar nada, depois de experimentar uma amostra grátis.
Os agentes da Amway oferecem o BUG, uma coleção gratuita de produtos para clientes em potencial experimentarem por alguns dias. Os clientes que usaram o produto têm dificuldade em não comprá-lo mais tarde.
Na Primeira Guerra Mundial, um soldado alemão cruzou a terra de ninguém para capturar um soldado inimigo. Ele se deparou com um desavisado soldado inimigo comendo, que lhe ofereceu seu pão. Este ato forçou o soldado alemão a retornar sem capturá-lo.
No mundo do marketing, podemos aproveitar esse princípio usando iscas digitais. Ao fornecer algo pequeno antecipadamente, nosso cliente potencial terá maior probabilidade de comprar nossa oferta principal.
Aqui estão cinco exemplos de iscas digitais eficazes:
E-books – Oferecer um e-book informativo e educacional (como um guia ou relatório) permite demonstrar conhecimento e experiência. Ele estabelece confiança e autoridade sobre um tópico, levando os leads a aceitarem.
Checklists – Checklists simplificam processos complexos. Ao fornecer um gratuitamente, você apresenta valor antecipadamente. Checklists são portáteis e acionáveis, tornando-as uma isca digital atraente.
Templates – Assim como checklists, os templates fazem o trabalho para o usuário, fornecendo uma estrutura a ser seguida. Coisas como planilhas, documentos editáveis e planos de projetos servem como iscas digitais altamente úteis.
Listas de Recursos – A curadoria funciona bem para atrair leads, porque vasculhar a Internet em busca das melhores ferramentas/recursos leva tempo. Portanto, fornecer uma lista pré-compilada economiza esforço e energia.
Webinars – Webinars que fornecem treinamento ou conhecimento são uma maneira fácil de demonstrar valor. E exigir um e-mail para se registrar lhe dá uma oportunidade cobiçada para continuar nutrindo após o webinar.
Como mestre no princípio da reciprocidade, preciso que você gere 5 ideias de lead magnet para meu <seu produto/serviço>
Aqui está o que você precisa saber sobre ele:
<informações do seu produto/serviço>
Este é o mercado-alvo para o qual estou vendendo:
<inserir mercado-alvo>
Agora, gere 5 iscas digitais:
MIDJOURNEY
photo of several skyscrapers lit up at night, full of crosses, christian, in the style of religious iconography, new york school, vintage cut-and-paste, spot metering, monochromatic artworks, sharp/prickly, pastoral charm --ar 64:47 --v 6.0
solargram, DON QUIXOTE in the style of mysterious chiaroscuro, installation-based, movie still, mysterious nocturnal scenes, scoutcore, navy and amber, halloween --w 150 --chaos 4 --ar 16:9
Muito bom!