Nova manchete: “’TERROR’ do ChatGPT: conheça a mais nova e surpreendente Inteligência Artificial”! A paranoia continua…
Estes “especialistas” ou estão sendo muito bem pagos para passarem vergonha escrevendo sandices desse tipo, ou estão em surto delirante.
A inteligência artificial tem quatro áreas: cálculo vetorial, reconhecimento de padrões, redes neurais e algoritmos genéticos, também chamados de algoritmos gulosos.
As inteligências artificiais que estão aparecendo e fazendo muito jornalista pseudo-especializado passar vergonha ao exaltá-las, são junções das quatro áreas em uma só linguagem através de códigos “Pontes” ou “devices”, como se fala em inglês, mas o que acontece quando se junta diferentes códigos construídos para diferentes funções, muitas delas antagônicas entre si? Resposta bem simples. Erros que podem causar catástrofes e até hecatombes.
O que hoje estão exaltando, badalando e glorificando como se fosse uma novidade que revolucionará a humanidade, algo novo “caído do céu”, já é antigo e utilizado há muito tempo, senão vejamos: como os radares de velocidade reconhecem as placas e calculam a velocidade dos veículos, multando aqueles que estão acima dos limites estabelecidos pelo Código Nacional de “Extorsão” de Trânsito? Elementar, meus caros. Aplicando duas das áreas da IA, o reconhecimento de padrões e o cálculo vetorial. A primeira identifica a placa do veículo, que segue um padrão estabelecido pela lei de trânsito, ativando a segunda área da IA, o cálculo vetorial, para determinar a velocidade de deslocamento da placa, e não do veículo.
Outros usos antigos de inteligência artificial são os assistentes pessoais como o Google Assistente, o Google Lens, a tão badalada Siri, da Apple, os atendentes virtuais dos operadores de telefonia, que nunca resolvem os problemas dos usuários, apenas atrapalham e enfurecem quem precisa de soluções diretas e práticas, e muitas outras coisa antigas que tentam noticiar como novidade.
Os primeiros passos daquilo que hoje chamam inteligência artificial foram dados pela IBM com seu IBM ViaVoice, um programa desenvolvido para reconhecimento de voz, convertendo-a em texto, lá no final dos anos 1990.
O conceito de aprendizado de máquina, o tal machine learning que o povo metido a “sofisticado, requintado, aprimorado” adora falar sem ao menos entender o significado e as origens, começou com o IBM ViaVoice em sua primeira versão, quando na instalação era exigido ler um dentre quatro textos pré-definidos para o programa “aprender” o sotaque do usuário e também o programa aprendia o modo de falar do usuário com uso. Os textos pré-definidos eram, na verdade, apenas dois, um texto era um resumo de 70 linhas da obra Dom Casmurro, de Machado de Assis e outro, da obra Os Piratas, também com 70 linhas e caso o programa não conseguisse aprender o sotaque do usuário, a máquina apresentava um dos outros dois trechos das mesmas obras, mas com 140 linhas para ser lido novamente. Isso era o aprendizado de máquina em seus primórdios. Leia mais aqui
[Voltar]