Há riscos para a humanidade que justifiquem a interrupção das pesquisas em Inteligência Artificial Generativa (IAG)?
Opiniões e fatos sobre os algoritmos transformadores
Está-se superestimando a IAG ou subestimando a capacidade humana? Que riscos e perigos estão no futuro da humanidade com esse grande e maravilhoso avanço da tecnologia?
De acordo com Luhmann, a razão pela qual a problemática do risco provoca tantas discussões, numa sociedade que inclusive se considera uma sociedade de risco, deve-se, fundamentalmente, à velocidade do desenvolvimento tecnológico.[1] Na época, ele se referia aos avanços da física, química e biologia. Além desses domínios, atualmente, a Tecnologia da Informação tem se acelerado de tal forma, se imiscuído na vida das pessoas de tal maneira, que as deixa completamente dependentes e, claro, como tudo na vida, envolvendo riscos e perigos. Riscos e perigos levam os indivíduos a pensar sobre o futuro, imaginar, especular sobre o melhor e o pior.
As tecnologias já foram rejeitadas por fatores diversos e nem sempre identificados claramente. Atualmente, em relação à IA, se fala em “risco de extinção da humanidade” ou em “catástrofe de nível nuclear”. Como se a Inteligência Artificial, baseada em artefatos criados pelos homens, tivesse chegado ao nível da inteligência natural dos naturatos ou fosse chegar em um tempo próximo, em um nível capaz de superá-los.
Neste momento, estamos muito distantes da construção de artefatos que se igualem aos naturatos e vou explorar dois pontos importantes que limitam o desenvolvimento da IA, na sequência deste artigo. Haveria muitos outros, mas não tem sentido abordá-los, dada a desproporção entre o “pensar humano” e um “hipotético pensar maquínico”, entre o aprendizado de máquina e o aprendizado humano.
Os algoritmos transformadores, que embalam o ChatGPT da OpenAI, o Bing AI da Microsoft, o Bard da Google, o Ernie da chinesa Baidu e em breve muitas outras plataformas, assombram pela forma como conseguem “dominar a linguagem”.
Esses algoritmos são muito bons em encontrar padrões em uma quantidade massiva de dados. Para dominar a linguagem eles aprendem a predizer não somente a próxima palavra numa sentença, mas também qual seria uma possível sentença em um parágrafo, bem como, predizer o próximo parágrafo. Assim surge um texto maior e mais robusto. Ora, isso é muito e deve ser festejado, mas não significa nada em relação ao foco deste artigo, de grandes riscos para a humanidade.
Em relação a essa novidade (IAGs), há muitas opiniões versando sobre as consequências para a humanidade. Nem todas estão ancoradas em fatos estabelecidos, principalmente aquelas elaboradas por quem desconhece total ou parcialmente a forma como se dá o processo de aprendizado, dado o pouco tempo que se tem contato com essas novas tecnologias. Algumas opiniões se transformam em puro exercício de futurologia, inclusive algumas das minhas, principalmente as filosóficas.
De qualquer forma, os críticos mais ferrenhos da IA, citam as opiniões de especialistas respeitados que defendem uma parada temporária no desenvolvimento dos algoritmos de IA. Quando se observa, com mais cuidado, os motivos que conduzem os especialistas a emitir tais opiniões, vê-se um espraiar de causas variadas e nem sempre bem estabelecidas e claras. E, todas essas diferentes causas, são classificadas como “riscos para a humanidade”,[2] transformando este termo num conceito vazio, haja vista a falta de definição precisa do que realmente signifique.
Não faz muito tempo a Google demitiu um importante pesquisador de sua equipe de IA depois que ele se convenceu que um de seus modelos de linguagem, o LaMDA, era senciente.[3] Não era um técnico qualquer, mas é notório, para outros especialistas, que não se pode falar em senciência para os atuais algoritmos generativos.
Geoffrey Hinton, importante cientista da computação, que fez contribuições significativas para o desenvolvimento da IA, fala em “risco existencial”, mas não acredita que os sistemas de IA sejam tão inteligentes quanto os humanos, embora afirme que em breve poderão ser (30 ou 50 anos ou até mais). Hinton, ressalta que o tipo de inteligência que os cientistas da computação estão desenvolvendo atualmente é muito diferente da inteligência que os humanos têm.[4]
Uma das causas, apontadas por Hinton, para o “risco existencial”, é que a IA pode ser manipulada por atores malévolos, — como líderes autoritários —, para causar danos e controlar seus eleitores.
Alguém, como Hinton, que faz previsões para daqui a 30 ou 50 anos ou até mais — há um erro bastante grande em suas especulações —, certamente está bastante incerto quanto às possibilidades do que afirma e não pode exigir que os benefícios da IA sejam preteridos em função de suas “crenças”.
Há muitas opiniões, que chamam a atenção da imprensa em geral, que não se ancoram em fatos e gradam-se entre os polos das expectativas “extremamente otimistas” e das “extremamente pessimistas”.
Opiniões, sem dados estabelecidos, são “religiosas”, no sentido atribuído por Einstein, pois são emitidas sobre algo insondável e que é compreendido de forma rudimentar.[5] Refiro-me às avaliações sobre essa nova tecnologia em si e seus impactos para o futuro da humanidade.
Estatísticas, embasadas em pesquisas dessas opiniões citadas, se transmutam em certezas que servem de base para eventuais ações precipitadas, de quaisquer indivíduos, organizações ou instituições.
Em relação às posições extremas sobre as IAGs, é cedo para eventuais juízos de valor.
Este artigo versa, exclusivamente, sobre os riscos das IAGs para a humanidade, no sentido de extinção e até de consequências de nível nuclear como entendem alguns.[6] Entendo que as bases reais que se dispõe neste momento se contrapõem, tanto às opiniões negativas extremistas, bem como àquelas extremamente positivas. Ainda que se possa continuar discutindo e se fazendo previsões sobre quaisquer outros impactos positivos e negativos de curto, médio e longo prazos em domínios específicos da sociedade, deve-se ter em mente que sem risco não há benefícios e sim mesmidade.
Algumas novidades são insuportavelmente inovadoras e trazem desassossego àqueles indivíduos que não encontram no passado embasamento para seus raciocínios e o procuram então num futuro, que não se pode dominar e nem prever. O ChatGPT da OpenAI é o aplicativo de crescimento mais rápido da história da tecnologia.[7]
Dois pilares importantes das IAGs: poder computacional e recursos humanos
Em meio às discussões sobre a necessidade de interrupções no desenvolvimento das IAs e suas derivações, como as IAGs, investidores estão aportando milhões de dólares em startups especializadas no desenvolvimento de algoritmos transformadores e modelos generativos. Empresas iniciantes, sem nomes definidos, sem planos de negócio, sem definição de como irão transformar em lucro suas atividades, recebem aportes de dezenas de milhões de dólares. A Character.AI, uma startup de IA fundada por dois ex-funcionários da Google há menos de dois anos, levantou 150 milhões de dólares, recentemente, e está avaliada em 1 bilhão de dólares.[8] Certamente esses investidores não estão vislumbrando o fim da humanidade.
Essa necessidade de aporte de milhões de dólares em uma empresa que está surgindo para desenvolver algoritmos transformadores e modelos generativos, traz à tona muitos questionamentos, mas principalmente evidencia algumas fragilidades flagrantes das IAGs, que desmistificam o poder exagerado atribuído a esses novos algoritmos.
Saliento dois pontos, muito importantes, sem prejuízo de outros já citados em artigos anteriores, para desmistificar o poder exagerado atribuído a esses novos algoritmos: “poder computacional” e “recursos humanos especializados e não especializados”.
Poder computacional
Os novos algoritmos transformadores (software), dependem de um “poder computacional” (hardware), nunca antes visto na história da tecnologia da informação, para a construção e manutenção dos modelos generativos. Especificamente, entre todos os sistemas de aprendizado de máquina, os modelos de linguagem, que causam muito furor atualmente, são os que sugam a maior parte dos recursos de computação.[9]
Isso se traduz na necessidade de investimentos, também inéditos, bilionários, direcionados ao incremento do poder computacional. Essa é a realidade atual e incontestável.
Poder computacional se liga com os computadores que temos no momento, limitados em muitos aspectos e completamente dependentes dos seres humanos, de suas habilidades em criar seus componentes e em prover energia para que funcionem adequadamente. Computadores quânticos, vistos como uma nova geração de computadores extremamente rápidos, ainda estão muito, muito distantes de se tornarem realidade, pois há muitos desafios a serem transpostos. Mesmo que sejam uma solução para o problema de capacidade que as IAGs necessitam, ainda assim, estarão à mercê dos seres humanos.
O computador depende tanto dos humanos que para atingir seus propósitos que, ironicamente, dever-se-ia ensiná-lo a dizer: “Não me desligue, pois meu desejo é destruir a humanidade”.
Parafraseando Michio Kaku, é notável como se necessita de tanto poder de computação, ancorado em computadores que consomem muita energia e que precisam estar em ambientes refrigerados, para simular um pedaço de tecido humano que pesa um quilo e meio, cabe dentro de um crânio, aumenta a temperatura corporal em apenas alguns graus, utiliza somente vinte watts de potência e precisa de apenas alguns hambúrgueres para se manter.[10]
Mesmo assim, com todo o poder computacional atual colocado à disposição, “As IAGs estão muito distantes de ter a capacidade de uma formiga, quiçá de um chimpanzé”[11], considerando-se suas autonomias.
Recursos humanos especializados para a construção de algoritmos e não especializados para a imputação de dados
Em 2021, 65,4% de todos os doutores em IA foram para a indústria, em comparação com 28,2% que aceitaram empregos na academia, de acordo com o AI Index Report.[12] Essa desproporção tem crescido constantemente desde 2011, quando as porcentagens eram quase iguais.
As universidades não estão conseguindo acompanhar os dispêndios necessários em poder computacional, que permita pesquisas nessas novas categorias de IA. Assim os talentos se deslocam para onde é possível ter os recursos de máquina essenciais. A demanda por “cabeças de obra”, para essa área específica, não para de crescer.
Além dos especialistas em computação para o desenvolvimento dos algoritmos, há a necessidade de humanos gerando dados na internet a todo momento. O mundo para as IAGs é um amontoado de textos, imagens e sons, todos disponíveis numa rede mundial de computadores. Sem eles, sem IAGs. As IAGs estão mortalmente ligadas aos humanos, sem eles, elas não existem.
Por que se preocupar com as IAGs e não com as bombas atômicas?
Apesar dessas somas bilionárias em máquinas, com consequências energéticas palpáveis, dos bilhões de dados disponíveis na internet e da grande quantidade de especialistas em computação, não se consegue, neste momento, e entendo que não se conseguirá por muitos anos, nem triscar o poder de um cérebro humano. O computador está muito distante de se igualar aos cérebros que criaram artefatos como ele. Tampouco, podem eles, criar algo como as bombas atômicas, que podem destruir a humanidade dezenas de vezes, caso o potencial delas seja efetivado.
Neste momento e nos anos vindouros, a IAG estará muito longe de atingir “senciência” e dominar ou destruir a humanidade como se apregoa (embora não se possa descartar que as máquinas herdem a terra e se espalhem pelo universo em algum momento, muito, muito, distante).
Por que, então, alguns disseminam o medo de extinção da humanidade? Seria essa a razão principal ou há outros interesses e riscos mais imediatos que devam ser considerados? Por que o interesse em regular o desenvolvimento de algo tão novo? Que nem se mostrou ainda tão perigoso para a humanidade? Alguns, que meses atrás se colocavam a favor de uma interrupção temporária das IAGs, para uma regulação, acabam de investir ou lançar empresas para desenvolverem algoritmos nesse segmento.
“‘No se puede regular lo que no se entiende’ […] Regular, y aún más prohibir la tecnología utilizada para distribuir información no se advierte como una respuesta sofisticada. Y puede abrir puertas a tentaciones peligrosas.”[13]
Está-se agindo como adulto diante de uma IAG, uma criança em sua mais tenra idade ou se está reagindo como criança mimadas diante de algo que não se entende, incluídas nesse processo as previsões otimistas e as pessimistas? Pelo menos, os milhões de usuários que se atracaram com as primeiras aplicações disponíveis, baseadas em modelos generativos, gostaram e os investidores estão vislumbrando um futuro promissor. Usuários e investidores vislumbram aspectos positivos e aplicações imediatas às necessidades humanas.
As empresas fornecedoras de software, inclusive a Fácil,[14] já preparam versões de seus produtos incrementados com as IAGs. As empresas usuárias das tecnologias de Informação também vislumbram melhorias em seus produtos e no atendimento de seus clientes.
Obviamente virá a ressaca, sem quaisquer prejuízos para os efeitos positivos. Aos poucos, haverá o entendimento de que nem tudo são flores no caminho das IAGs em relação ao que realmente podem oferecer e todos saberão, a seus modos, aproveitar a beleza dos algoritmos generativos e a entender suas limitações, inclusive quanto à possibilidade de destruição da humanidade e da promoção de catástrofe de nível nuclear.
É muito difícil aceitar que a sociedade seja um sistema social autopoiético, que cria seus próprios elementos e sua própria estrutura. Ela nem está lá atrás, construída, dando as cartas, e nem está adiante, estruturada e inflexível, só esperando o resultado das ações. A sociedade se constrói no presente, tudo acontece simultaneamente e é extremamente complexa, impossível de ser dominada.
Alguns, tentam se colocar fora da sociedade e sentem-se como pontos de apoio para determinarem seus rumos. Mas, como afirma Darío Rodríguez, ninguém consegue ser um ponto de apoio fora da sociedade, ajustando-a. Todo ponto de apoio tem que estar fora do que deseja movimentar.[15] Ninguém pode ser como o Barão de Münchhausen, que se salvou de um afogamento, puxando-se pelas golas do próprio paletó.
A realidade sempre se impõe sobre as previsões, sobre as expectativas. As expectativas, inicialmente, norteiam as estruturas, criam possibilidades, mas se alteram ao longo do tempo e faz parte de qualquer expectativa a frustração. Há um processo intrincado entre estrutura e tempo, em que o tempo se mostra como fator decisivo para o estabelecimento de estruturas. O passado estruturado está submetido às variações do presente, mas essas variações serão selecionadas no presente-futuro. A teoria da evolução nos ensina sobre as variações, mas só pode haver variação sobre algo estabelecido e nem todas as variações podem ter espaço no futuro, haverá uma seleção.
Falando em momento distante, vale lembrar de uma outra preocupação que deveria estar em nossa agenda: é certo que a humanidade desaparecerá quando o sol explodir.
Uma noite, meu filho de 7 anos me perguntou se ele sofreria quando o sol explodisse. Expliquei-lhe que o sol não ia explodir. Ele disse que eu estava errada e me mostrou um livro que descrevia a extinção do sol... daqui a 5 bilhões de anos! E acrescentou:
— Se tenho esse livro há mais de um ano, isso significa um ano a menos![16]
Está-se dando muita atenção às previsões catastróficas, às atitudes “religiosas” no sentido einsteiniano e em opiniões políticas, todas apressadas. Os fatos reais, quando buscados e estudados, trazem as informações necessárias para nortear atitudes, e ações, mais próximas dos anseios da sociedade. Pode-se, inclusive, concluir que agir menos em relação à possíveis regulações, é mais.
Meios de comunicação
No livro, “O nome da Rosa”, de Humberto Eco, o monge franciscano, Guilherme de Baskerville, não imaginava o que iria viver nos dias seguintes à sua chegada em um monastério beneditino no norte da Itália, em 1327. Mesmo que a missão do monge fosse investigar uma série de assassinatos que ocorreram na abadia.
Humberto Eco utiliza o livro como um veículo para explorar questões como a natureza do conhecimento e da verdade, a relação entre ciência e religião e a importância da linguagem e da comunicação na sociedade.
Os monges da abadia escondiam alguns livros da biblioteca para evitar que seus conteúdos fossem divulgados para além dos muros da abadia e assim preservar o conhecimento apenas para os membros da ordem. Além disso, alguns livros, considerados perigosos, eram protegidos por venenos e armadilhas para evitar que fossem lidos por pessoas não autorizadas.
À época, nada parecia mais assustador e perigoso para a humanidade, que o acesso à certos conhecimentos, principalmente por meio da escrita. O que seria da humanidade se todos aprendessem a ler e a interpretar eles mesmos os textos, sejam eles sagrados ou profanos?
O que seria da humanidade se não houvesse quem intermediasse os escritos para as pessoas comuns? Assim como pensava Achebe, que não tinha mais energia nem razão para viver e se preocupava com seu deus, pois, o que é um deus sem o seu sacerdote? refletia Achebe.[17]
As IAGs são meios de comunicação muito eficientes e nesse sentido assustam. Afinal, agora se pode perguntar sobre qualquer coisa e um texto que esteja na internet, às vezes esquecido e que muitos não acessariam, é trazido à tona em meio a outros, formando ou não um todo coerente.
Deve-se colocar “veneno” nos botões que permitem acesso às IAGs ou aguardar que a humanidade aprenda a lidar com essa novidade?
Em outras palavras, a IAG deve ser vista, também, como um meio de comunicação e não como uma forma em si.
Dominar a linguagem, como fazem as IAGs, sem uma atribuição de sentido próprio aos textos que vomitam para seus usuários (o sentido dos textos foi atribuído por seus autores), transformar-se numa forma útil, mas vazia em si mesma, para quaisquer propósitos, sejam eles quais forem, mormente os destrutivos. As IAGs não têm qualquer noção dos textos que estão apresentando e não fazem quaisquer juízos de valor. As IAGs são meras mensageiras. Atacar e controlar os mensageiros não acaba com os deflagradores que os utilizem. Até agora não existiam a IAGs, mesmo assim os deflagradores se utilizavam de quaisquer meios existentes para suas “incríveis” ideias e, claro, para as ideias incríveis.
As experiências de difusão de dados ou de informações têm sido benéficas para a humanidade até agora e isso não vai mudar. A dinamicidade, a fluidez das estruturas sociais, se baseia em expectativas múltiplas. Há as que se frustram e há aquelas que se estabelecem. A seleção contribui para a autopoiese sistêmica. A autopoiese sistêmica não pode ser controlada, somente destruída. Claro que as expectativas de colapso da humanidade por conta das IAGs estão postas, mas deve-se considerar fortemente se realmente estão ancoradas em fatos e quais são realmente as chances de ocorrerem. A dimensão temporal deve ser levada em consideração, pois já sabemos que previsões para prazos longos podem ser apenas exercícios de futurologia.
A IAG, conforme se apresenta gora, faz parte dos meios de comunicação da humanidade civilizada e neste sentido deve ser aceita e analisada. Não se pode afirmar que os textos trazidos pela IAG sempre serão aceitos. Sempre existe a possibilidade do “não”, essa é uma das características da comunicação, um sistema autopoiético. A linguagem oferece a possibilidade do “não” e do “sim” e não se pode afirmar que haja uma distribuição que favoreça o “sim”.
A beleza das IAGs, em relação aos meios tradicionais de comunicação como jornais, revistas, televisão e os mecanismos tradicionais de busca na internet, é a possibilidade de interação, do diálogo, como se Ego estivesse diante de Alter, presencialmente. Mas Ego está diante de um Alter que não “interpreta”,[18] apenas filtra dados de vários milhares, de milhões de possibilidades e os traz de acordo com o desejo de Ego. Esse Alter, a IAG, tenta, de todas as formas, encontrar relações que sejam coerentes, em sentido, sem conseguir saber se teve ou não sucesso por si mesmo, pois os sentidos, atribuídos aos textos, são de outros e estão escondidos para ele.
As IAGs se valem de estatísticas para a reunião de textos, nem sempre coerentes em sentido, pois o sentido foi atribuído por seus autores e como elas não interpretam, não conseguem identificar incoerências e erros, muitas vezes crassos.
Cabe, única e exclusivamente a Ego, em seu momento de Alter, transformar textos em informação e em conhecimento e atribuir sentido aos mesmos, de acordo com seus critérios. E quanto mais textos Ego, em seu momento Alter, tiver à disposição, quanto mais dados, quanto mais informações, certamente haverá um incremento, um aumento de complexidade em suas estruturas, uma modificação estrutural que propiciará melhores avaliações de possibilidades e expectativas.
Ninguém consegue irromper na clausura operacional das operações de pensamentos de outros, sem passar pelo filtro da consciência daquele. As IAGs não conseguem dominar seus usuários e forçá-los a fazer o que quer que seja.
Como afirma Luhmann:
Tudo o que é possível comunicar, deve passar, primeiro, pelo filtro da consciência, situado no meio [aqui deve-se entender, meio, como “entorno”] do sistema de comunicação. Nesse sentido, a comunicação é totalmente dependente da consciência e, ao mesmo tempo, algo que a exclui completamente, já que a consciência nunca é comunicação.[19]
“O pensar não surge pelo fato de que se vem ao mundo com os olhos abertos: é preciso aprender a fazê-lo.”[20] Como se pode ensinar alguém a pensar restringindo dados e informações? A IAG é poderosa quando se trata de informar e isso deve ser incentivado.
De acordo com Luhmann, a estrutura da comunicação está completamente intermediada pela consciência e não por outros fenômenos, incluída aí a linguagem. Dominar a linguagem, com fazem as IAGs, não significa interferir diretamente na comunicação, pois a linguagem é apenas a ligação entre a consciência e o sistema de comunicação. As IAGs dominam a linguagem e permitem que os seres humanos extraiam informações e dados dos computadores de forma mais “natural”.
Nós não temos, ainda, Inteligência Artificial
Jaron Lanier afirma, de maneira muito acertada, de que não há inteligência artificial.[21]
Lanier sustenta que existem maneiras de controlar a nova tecnologia[22], mas primeiro temos que destruir os mitos que foram criados a respeito dela.
Ele afirma que o termo “inteligência artificial” tem uma longa história e foi cunhado na década de 1950, nos primórdios dos computadores. Obviamente, naquela época, também se trabalhava sobre dados ainda muito incipientes.
De acordo com Lanier, em qualquer cafeteria do Vale do Silício, pessoas debatem se esses algoritmos são apenas códigos como outros quaisquer, com as pessoas no comando, ou se quem pensa assim não está entendendo a profundidade dessa nova tecnologia. Diz ele que os argumentos não são inteiramente racionais.
Conforme Lanier, muitos indivíduos estão impressionados com os modelos generativos e se põem em vigília esperando uma inteligência maior. Ele afirma que a posição mais pragmática é pensar em IA como uma ferramenta, assim como venho advogando.
Mitologizar a tecnologia apenas torna mais provável que não consigamos operá-la bem – e esse tipo de pensamento limita nossa imaginação, amarrando-a aos sonhos de ontem. Podemos trabalhar melhor assumindo que não existe I.A. Quanto mais cedo entendermos isso, mais cedo começaremos a gerenciar nossa nova tecnologia de forma inteligente.[23]
Como já citei, quando utilizamos as plataformas baseadas em IAG, estamos dialogando com fórmulas matemáticas,[24] e assim, por enquanto, é como devemos nos posicionar.
[1] LUHMANN, Niklas. Sociología del riesgo. Guadalajara, Jalisco: Universidad Iberoamericana; Universidad Guadalajara, p. 70.
[2] Ou correlatos deste termo como: “risco existencial”, citado na sequência, e outros.
[3] OREMUS, Will. Google’s AI dilemma: Move fast or ‘don’t be evil’. Disponível em: < https://www.washingtonpost.com/technology/2023/04/19/google-bard-pichai-60-minutes-ai/ >. Acesso em: abr. 2023.
[4] BISSET, Victoria. AI pioneer quits Google to warn humanity of the tech’s existential threat. Disponível em: < https://www.washingtonpost.com/technology/2023/05/02/geoffrey-hinton-leaves-google-ai/ >. Acesso em: maio. 2023.
[5] “Saber que existe algo insondável, sentir a presença de algo profundamente racional, radiantemente belo, algo que compreendemos apenas em forma rudimentar - é esta a experiência que constitui a atitude genuinamente religiosa. Neste sentido, e neste sentido somente, eu pertenço aos homens profundamente religiosos.” Albert Einstein
[6] PEREIRA, Carlos José. Unleashed the beast - A Inteligência Artificial Generativa (IAG) pode ser domada? Disponível em: < https://www.oanalistadeblumenau.com.br/blog/35/unleashed-the-beast-a-intelig-ncia-artificial-generativa-iag-pode-ser-domada >. Acesso em maio 2023.
[7] SEETHARAMAN, Deepa; JIN, Berber. ChatGPT Fever Has Investors Pouring Billions Into AI Startups, No Business Plan Required. Disponível em: < https://www.wsj.com/articles/no-business-plan-no-problem-chatgpt-spawns-an-investor-gold-rush-in-ai-6bdbed3c?mod=tech_lead_pos2 >. Acesso em: maio. 2023.
[8] Ibidem.
[9] PERRY, Tekla S. 10 Graphs That Sum Up the State of AI in 2023 The AI Index tracks breakthroughs, GPT training costs, misuse, funding, and more. Disponível em: < https://spectrum.ieee.org/state-of-ai-2023 >. Acesso em abr. 2023.
[10] KAKU, Michio. The future of mind: the scientific quest to undestand, enhance, and empower the mind. New York: City University Of New York, 2014, p. 255.
[11] PEREIRA, Carlos José. A Inteligência Artificial Generativa realmente dominou a linguagem como afirma Yuval Harari? Disponível em: < https://www.oanalistadeblumenau.com.br/blog/34/a-intelig-ncia-artificial-generativa-realmente-dominou-a-linguagem-como-afirma-yuval-harari >. Acesso em: abr. 2023.
[12] PERRY, Tekla S. 10 Graphs That Sum Up the State of AI in 2023 The AI Index tracks breakthroughs, GPT training costs, misuse, funding, and more.
[13] ABASCAL, Gonzalo. ¿Es inteligente prohibir la Inteligencia Artificial? Disponível em: < https://www.clarin.com/opinion/-inteligente-prohibir-inteligencia-artificial-_0_5VFjMwsjqK.html >. Acesso em: abr. 2023.
[14] FÁCIL. Disponível em: <www.facil.com.br>. Acesso em: maio. 2023.
[15] RODRÍGUEZ, Darío. Prefacio de Darío Rodríguez a la cuarta edición; In: RODRÍGUEZ, Darío.; ARNOLD, Marcelo. Sociedad y teoría de sistemas: elementos para la comprensión de la teoría de Niklas Luhmann; 4 ed. Santiago: Editorial Universitaria, 2007, p. XVII-XVII.
[16] KARINE, Couture. Livros preciosos In: CHARLAB, Sérgio. Seleções; edição TOMO CXVIII, n. 714 - julho. Rio de Janeiro: Reader's Digest, 2001, p. 85.
[17] ELIAS, Norbert. Sobre o tempo; editado por Michael Schröter; tradução Vera Ribeiro; revisão técnica Andrea Daher. Rio de Janeiro : Jorge Zahar, 1998, p. 134-135.
[18] PEREIRA, Carlos José. A Inteligência Artificial Generativa realmente dominou a linguagem como afirma Yuval Harari? Disponível em: < https://www.oanalistadeblumenau.com.br/blog/34/a-intelig-ncia-artificial-generativa-realmente-dominou-a-linguagem-como-afirma-yuval-harari >. Acesso em: abr. 2023.
[19] Introdução à teoria dos sistemas; tradução: Ana Cristina Arantes Nasser. 3 ed. Petrópolis: Vozes, 2011, p. 276.
[20] Ibidem.
[21] LANIER, Jaron. There Is No A.I. Disponível em: < https://www.newyorker.com/science/annals-of-artificial-intelligence/there-is-no-ai >. Acesso em: abr. 2023.
[22] Eu levanto essa questão em: PEREIRA, Carlos José. Unleashed the beast - A Inteligência Artificial Generativa (IAG) pode ser domada?
[23] LANIER, Jaron. There Is No A.I. Disponível em: < https://www.newyorker.com/science/annals-of-artificial-intelligence/there-is-no-ai >. Acesso em: abr. 2023.
[24] PEREIRA, Carlos José. Como alguém pode saber e não saber que sabe? Disponível em: < https://www.oanalistadeblumenau.com.br/blog/30/como-algu-m-pode-saber-e-n-o-saber-que-sabe >. Acesso em: maio. 2023.