Tudo sobre NLP e por quê o ChatGPT não pode ter consciência
Nessa edição você vai entender o que é, como opera, usos e desafios dessa modalidade de inteligência artificial que ganhou tanta força recentemente.
O termo de uso comum é ChatGPT. A tendência de conversar com um robô na internet não é nova, mas um que é capaz de adivinhar o que você quer ver de resposta é novidade. E o que está por detrás dessa magia que ensina máquinas a usarem a linguagem humana se chama NLP, ou natural language processing.
E hoje é seu dia de sorte, vamos explicar a tecnologia por detrás dessa tecnologia de forma descomplicada para que você saiba por quê o chat do Google não tem consciência.
O que é NLP e os Principais Objetivos do PLN - Processamento de Linguagem Natural
A história do NLP começa já por volta de 1950. Alan Turing ainda nessa época já havia publicado um artigo que hoje é conhecido como o Teste de Turing. O ponto principal aqui é que na época já se percebia que um sinal de inteligência artificial deveria ser conseguir se comunicar com seres humanos de forma que estes não percebem que máquinas estavam por detrás do que estava sendo dito.
O que começou com o objetivo de medir inteligência de computadores virou uma área inteira e exclusiva de estudo dividida em 3 fases, que basicamente usavam técnicas diferentes de machine learning: NLP simbólica, NLP estatística e NLP neural.
A NLP neural, que você e eu usamos hoje é a que está por detrás do ChatGPT. O processamento inteiro conta com redes neurais, uma técnica de machine learning - saiba o que é ML aqui -, por debaixo dos panos para tentar dar significado e contexto ao conjunto de palavras a serem escritas.
Geração de Linguagem Natural
Todavia, não é somente entender o que nós escrevemos para as máquinas que gerou tanta surpresa nas pessoas, mas foi a capacidade dos computadores gerarem texto no formato de linguagem humana. E mais ainda, um texto gerado que parecia ter sido escrito por um ser humano.
Os modelos generativos, como são chamados, mudaram tudo porquê agora as máquinas não somente fazem a análise sintática do que está escrito, mas mesmo sem conseguir fazer a análise semântica, conseguem prever qual o conjunto de palavras a seguir tem mais relação com o contexto.
É assim que, por exemplo, um NLP de assistente virtual de e-mails consegue responder um e mail para você: ele aprende como estruturalmente você posiciona as palavras nas suas frases, e faz isso muito bem usando não apenas seu universo de e-mails, mas um conjunto de bilhões de outras referências de escrita.
É como quando um amigo de longa data imita você falando ou reagindo a uma situação. É como se seu amigo fosse um computador, e que de tanto ouvir como você fala, aprendeu que geralmente depois de determinada frase a sua resposta habitual é não somente usando palavras específicas, mas como quais usam quando quer falar a mesma coisa com humor diferente.
Evolução do Processamento de Linguagem Natural
Como dito anteriormente o NLP passou por 3 fases diferentes até os dias de hoje. Desde 1950 os métodos de machine learning e o processamento de linguagem natural evoluíram de simples regras e análises combinatórias para modelos matemáticos complexos que simulavam as redes neurais humanas.
Um método famoso usado antigamente era o de dicionário. Basicamente o computador recebia um texto bruto, extraía apenas as palavras com algum significado e era treinado para entender o contexto baseado na frequência que determinada frase aparecia em um texto sobre determinado assunto ou análise de sentimento.
O problema dessa metodologia, é que ela era enrijecida e não levava em consideração que na linguagem humana as vezes as mesmas palavras poderiam mudar de significado em um contexto diferente.
É por isso que os primeiros chatbots eram tão ruins de serem utilizados. Eles ficavam aprendendo as frases comuns de clientes para específicos problemas. Mas, quando clientes de partes diferentes do país falavam de formas diferentes, os chatbots não conseguiam entender a nova frase, pois não conheciam aquela palavra local diferente no seu dicionário.
O NLP de Processamento Neural
Os modelos recentes de NLP não levam em consideração partes individuais do texto. A tecnologia recente não possui regras, ela inclusive nem analisa as palavras de forma individual. O texto é quebrado em tokens, e o tamanho do token pode ser desde um caracter até um subconjunto de palavras.
Assim como funcionam nos neurônios, a tecnologia pega vários exemplos do mundo real, como por exemplo o que está escrito nas redes sociais, e aprende relações entre diferentes tokens. Daí quando as assistentes virtuais - como a siri do iphone - ouve seus comandos de voz, ela faz o processamento do texto bruto do comando em tokens e sabe por uma relação forte, quando você expressa determinados tokens - ou palavras - o esperado do outro lado é um outro conjunto de tokens. Não há interpretação.
Uma explicação bem completa sobre como um NLP funciona pode ser encontrado no artigo The Essential Guide to How NLP Works escrito por Riti Dass.
Compreensão da Linguagem Natural
Esse modelo de relação de palavras é a tecnologia mais moderna que temos hoje. Ou seja, mesmo o ChatGPT, que você se surpreende com as falas, é o resultado de um treinamento de força bruta. Bilhões de dados de diversas fontes - como redes sociais, chatbots, texto de artigos na internet etc - são usados como exemplos para treinar essas grandes máquinas de processamento de linguagem natural.
O NLP que você conhece hoje não tem compreensão do que é escrito. Mas, é talvez o maior especialista em linguística. E não estou falando da linguística computacional e ou de linguagens de programação e sim da linguística humana, pois o NLP tem uma visão puramente técnica de como nos comunicamos.
Grandes Volumes de Dados Textuais
Como parte do objetivo de um NLP é a compreensão da linguagem natural das pessoas, os dados necessários para treinar um NLP não precisam de tanto processamento prévio, e por consequência podem estar em todo canto.
E, para que uma ferramenta como essa não seja limitada como os chatbots, ela precisa ser treinada no máximo possível de exemplos, talvez até mesmo em diversas línguas diferentes.
E o ChatGPT sofre das mesmas polêmicas que assistentes virtuais como a Alexa sofreram: talvez essas tecnologias estejam capturando dados que pertencem a pessoas ou empresas e usam a seu favor sem o devido consentimento.
Essas interações que podem parecer ingênuas, podem estar alimentando ferramentas com informações que podem variar desde uma conversa sem significado nenhum, até dados sigilosos ou propriedades intelectuais.
Principais desafios do NLP
Os 3 principais desafios da tecnologia de processamento de linguagem natural hoje são computacionais, éticos e econômicos.
Os Problemas Computacionais
A linguagem natural é um organismo vivo. Ela vai mudando ao longo da história e se para aprender mais sobre a comunicação entre pessoas os computadores ainda precisarem de infinitos dados para treinarem a inteligência artificial, podemos atingir um limite do que temos de capacidade versus o custo para manter esses recursos disponíveis de forma acessível.
Alguns estudos recentes de inteligência artificial buscam criar uma espécie de capacidade de raciocínio. Dessa forma, ao invés de consumir mais dados para aprender, os computadores vão ganhar a capacidade de interpretação, seja através do que como humanos chamamos de lógica. Uma das linhas de estudo inclusive analisa como bebês aprendem sobre o mundo através de analogias para tentar dar a mesma capacidade à aplicações.
Os Desafios Éticos
A discussão sobre ética no campo da inteligência artificial é antiga, e possui diversas ramificações. Quando falamos dessas discussões no campo da linguagem natural, dado que a inteligência artificial não sabe distinguir o significado das coisas, o resultado das suas aplicações podem gerar dados controversos.
O uso das tecnologias generativas é de uma interface tão simples que antes o que era assunto apenas para especialistas, virou ferramenta na mão de crianças, que estão usando para fazer seus deveres de casa, e idosos que usam para poder conversas e combater a solidão.
Porém, se o processamento dessas ferramentas são feitos em cima de dados que estão, por exemplo, em mídias sociais, e é sabido que nessas mesmas mídias sociais, o comportamento das pessoas pode ter intenção agressiva ou perversa, é esperado que talvez a linguagem usada pela inteligência artificial absorva essa mesma intenção.
Por causa disso, as empresas e comunidades por detrás dessas ferramentas estão treinando seus modelos para evitarem assuntos sensíveis, e até mesmo proibidos. O Sam Altman, em entrevista recente comentou que entre o risco de comunicar algo errado, e ser muito mais restritivo, prefere treinar seu modelo para ser muito mais restritivo.
Porém, se empresas e grupos seletos definem o que uma inteligência artificial entende como o que é certo e errado para se falar, uma nova série de novos questionamentos nascem como: quem determina que essas pessoas são as corretas para definirem o que é o exemplo do certo e errado?
Os Desafios Econômicos da Inteligência Artificial
O mercado de inteligência artificial é gigantesco. Mas, com razão, essa é a revolução industrial mais recente que estamos vivendo. E a principal promessa é de que a máquina irá substituir o homem e o que antes uma empresa conseguia atingir por meio da computação será de proporções não imaginadas até então.
Mas, o campo de NLP possui uma importância ainda mais legítima nesse processo de transformação. É através dela que uma empresa consegue utilizar diversas aplicações de AI sem precisar entender o processo de computação por detrás dele.
Em uma edição passada dessa newsletter eu descrevi sobre o tamanho do mercado de AI, mas não tinha explicitado que o mercado de processamento de linguagem natural por si só representa uma economia de mais de $11 bilhões de dólares, podendo chegar a $35 bilhões até 2026.
E com tanto dinheiro assim, por quê é um desafio? Bom, economistas possuem diferentes opiniões sobre como AI irá de fato assumir ou não trabalhos no mundo todo. Mas, já conseguimos ver a ansiedade de qualquer trabalho no segmento de comunicação, por exemplo, para produzir de forma automática artigos, postagens, imagens e até vídeos usando linguagem natural. As ações da Buzzfeed subiram absurdamente depois que eles anunciaram que iriam começar a usar PLN - processamento de linguagem natural - para produzir seus conteúdos.
O tema é de importância porquê quando a substituição de um meio de produção por outro impacta na quantidade de empregos gerados, isso requer que governos comecem a se envolver com o tema.
Mecanismos de Busca
O que começou como um chat engraçado gerou uma das maiores batalhas recentes entre as Big Techs. Quando o ChatGPT ganhou destaques nas notícias e seu uso virou assunto comum nas mesas de boteco, isso começou a chamar a atenção de diversas empresas.
A Microsoft, que já era investidora da OpenAI - a criadora do ChatGPT - e já tinha feito um projeto chamado Github Copilot, uma ferramenta que transforma linguagem natural - PLN - em comandos de máquina ajudando desenvolvedores a programar, decidiu investir mais $10 bilhões de dólares na OpenAI, comprando 49% da empresa. Com esse movimento, anunciou que estaria incluindo o ChatGPT na sua ferramenta de busca: o Bing.
O Google e o Facebook que estavam tranquilos tocando suas próprias iniciativas de processamento de linguagem natural precisaram levantar do banco e começar a se mexer, para não ficarem para trás. Chegou ao ponto de rolar uma comunicação interna no Google dizendo para que toda a empresa começasse a identificar as iniciativas, dispositivos ou aplicações que poderiam absorver processamento de linguagem natural em seu funcionamento.
A nova corrida pelo ouro das máquinas de busca saiu pela culatra para o Google que depois de uma apresentação das novas invenções com inteligência artificial viu suas ações despencarem devido a uma apresentação desorganizada e com algumas falhas até mesmo nos produtos apresentados.
O Futuro do NLP
Existem muitas expectativas do que o processamento de linguagem natural nos reserva no futuro:
atendimento a clientes,
chatbots mega inteligentes,
conteúdos auto-criados para os meios de comunicação,
consulta de informações através de assistentes virtuais,
dispositivos de tradução de idioma etc.
economizar recursos automatizando atividades
Hoje qualquer empresa que não está buscando uma aplicação de processamento de linguagem natural - PLN - para si, está correndo o risco de perder competitividade de vez.
O que é certo é que o idioma com o passar do tempo irá perder relevância, e todas as informações poderiam ser consumidas através de uma linguagem universal: a de processamento de linguagem natural.
Acontecendo no Mundo
Sports Illustrated Usando AI Para Criar Artigos
Depois do CNET e Buzzfeed, agora é a vez da Sport Illustrated vir a público com sua decisão de também usar inteligência artificial na confecção de artigos sobre conselhos fitness. Embora tudo isso seja em nome da eficiência, ficamos ansiosos para ver qual a opinião de AI sobre trapézio descendente.
Anotação de Partidas de Futebol em Outro Nível
Um novo modelo de AI pode começar a dar conta da enfadonha tarefa de criar anotações do que acontece em partidas de futebol. Hoje esse trabalho essencial para a análise de oponentes exige horas e horas da equipe que vai assistindo as partidas e marcando o que acontece nos vídeos para posterior estudo.
Um Jeito Simples de Entender o ChatGPT
Um Jeito Complexo de Entender o ChatGPT
Ferramentas
Copilot Para Todo Mundo
Github anunciou o lançamento aberto do Copilot para todo mundo. Agora a ferramenta pode ser contratada por qualquer pessoa ou organização. Para quem não lembra, o Copilot é a ferramenta que escreve códigos de forma automática do Github, meio que ajudando desenvolvedores a serem mais rápidos.
Essa edição está excelente!