Qual IA você acha melhor?

Olá, conterrâneos. Tudo bem?

Já faz muito tempo que as IAs estão no mercado.

E uma que eu apoiei desde o inicio foi a do Elon Musk.

O que surpreendeu-me, no seu início, fora a habilidade de traduzir textos em Tupi. Fiz alguns testes e para seu lançamento tardio em relação ao ChatGPT e Gemini, ela traduzia 80% das frases corretamente.

Contudo, isso já se faz quase 2 anos. Agora o Grok lançou uma função embutida de criar imagem e poder animá-la.

Decidi fazer um teste, há certo tempo, criaram o meme para zoar medo dos indivíduos de certo grupo ideológico… Refiro-me ao meme do fantasma.

Para zoar no X.com, decidi fazer um meme de um fantasma bem “caliente”, e me surpreendi com o resultado.

Como não pode compartilhar video da tela aqui no fórum, vou compartilhar a conversa com o Grok, é só escolher a imagem e aperta num botão de reprodução que vai aparecer ao passar o mouse pela imagem, assim ele irá animar a foto.

https://grok.com/sharebGVnYWN5LWNvcHk%3D_edae9a62-3842-4c8c-9378-0b8c9c277909

Com isso, eu finalizo esse post com a pergunta do título, qual IA você acha melhor?

aqui nao funcionou o link, e uso mais o ChatGPT, Gemini e as vezes o huggingface.

1 curtida

A melhor é aquela que você usa no seu próprio computador, pagando a própria energia e sem fornecer informações a terceiros. É essa que eu uso.

3 curtidas

Verdade, obrigado pela sabedoria.

Huggingface? Não conheço, irei dar uma olhada.

@Deleterium, tentei instalar uma gratuita e utilizar. Porém recorri em vários minutos de espera para me responder “qual modelo de AI você está utilizando?”. Tentei outras perguntas simples e o resultado foi o mesmo. Tentei carregar um texto de um artigo como base de dados e perguntei o título do texto e o resultado permaneceu o mesmo.

Resultado: continuo usando chat-gpt na minha pesquisa e esgotando as reservas de água da humanidade…

Você usa/recomenda alguma ferramenta/modelo? Qual seria? Funciona direitinho?

Uso o projeto brasileira da Maritaca AI

O ollama ajuda bastante. Não precisa necessariamente de placa de vídeo para rodar, mas pra ter um modelo que fale bem português precisa ter 32GB de RAM e pegar algum modelo de 30 bilhões de parâmetros. Tenho boas respostas com o qwen3:30b-a3b.

Já para programação e em inglês uso modelos especializados. Esses eu consigo rodar na minha placa de vídeo de 8G, são respostas rápidas (rápida por gerar mais texto que rápido do que a velocidade de leitura). Uso o qwen2.5-coder:7b que funciona bem para tirar dúvidas e criar códigos mais triviais.

O ollama é basicamente o servidor. Para ter uma interface gráfica legal eu uso o Alpaca via flatpak. Vale ver algum vídeo para o passo a passo. A grosso modo é:

  1. Instale o ollama
  2. Veja se precisa de alguma configuração específica para sua placa de vídeo, caso queira usar (opcional).
  3. Execute o servidor do ollama em segundo plano ollama serve. Mantenha essa janela aberta pra ver a atividade acontecendo.
  4. Instale o Alpaca
  5. No Alpaca, vá em “manage models” e “available”
  6. A parte chata é descobrir qual modelo melhor se adequa ao seu uso, afinal os modelos dos sites são os mais completos, e aqui vamos procurar os mais específicos. Tem tantos que valeria um tópico específico de alguém que conhecesse bem. Escolha o “Orca mini” com 3B parâmetros para ser rápido de baixar. Regra geral você precisa de mais RAM que o numero de de parâmetros: 3B → 4G+; 30B → 32GB+. Também os modelos são pesados pra baixar, a grosso modo mesma quantidade de download do que de RAM que precisa pra usar. Lembre-se também que vai ocupando espaço em disco, então não dá pra ficar baixando um monte de modelos que vai entupir sua instalação.
  7. Baixe um modelo simples pra testá-lo. Isso pode ser feito pela linha de comando (ollama pull nomeDoModeloEParametros) ou pelo Alpaca como no passo anterior.
  8. No Alpaca, clique para iniciar nova conversa e faça a pergunta. Você verá atividade na janela do ollama server. O modelo será carregado (na ram ou na placa de vídeo) e dentro de uns 30 segundos deve começar a ter alguma resposta.

Bem, eu fui fazer agora e, só pra queimar a língua, o ollama não está funcionando… Então também tem essa dificuldade de ser algo muito novo e que pode quebrar em alguma atualização. Mês passado era o Alpaca que não estava fazendo download de modelos. Enfim… tem essa desvantagem de ter que quebrar a cabeça pra colocar pra rodar.

edit: Fiz o downgrade do Ollama 0.11.10 para 0.11.4 e voltou a funcionar.

1 curtida

Entendi. Obg pela resposta. De qualquer forma não possuo hardware para rodar. Acho que deve ter sido isso o motivo da lentidão. Possuo um i7 7500U e uma memória de 20GB. Limitado demais para isso, creio eu.

Eu uso o gemini 2.5 pro, apesar de ele demorar mais que a versão rapida, as respostas deles costumam ser bem superiores.

Uso tambem o gpt, geralmente quando não conheço o assunto que vou pesquisar, uso ambas e vejo a diferença entre as respostas e as confronto com as diferenças para ter o melhor resultado

Deveria ser possível sim rodar o ollama e modelos simples no CPU e com 20G de RAM, ao menos receber alguma resposta.

Mas eu imagino que essa facilidade da IA ainda está bem no começo, então realmente uma boa parcela da população fica dependente do serviço de terceiros, seja pela dificuldade de operar modelo no seu computador ou mesmo porque muitos sequer tem computadores. Nos próximos anos deve melhorar bastante o acesso, pelo menos pro entusiasta, embora a massa da população vai continuar nos modelos da web.

Nesse ponto o uso consciente é a melhor opção. Achei horrível que o Google coloque IA nas buscas, banalizando o desperdício de energia, mesmo sem a gente querer (daí novamente a vantagem de usar o duckduckgo). O prompt para uma busca, baseado em palavras chave, é diferente de uma pergunta para IA, onde o contexto importa bastante para um resultado melhor. Também não sou radical. Algumas vezes e eu recorro essas alternativas web. Eu costumo usar o Perplexity e Deepseek.

Não se culpe por utilizar recursos naturais. Se preocupe em evitar o desperdício.