Aumentando a pesquisa com o LLMS na Data Summit 2025

Aumentando a pesquisa com o LLMS na Data Summit 2025

 

 

A pesquisa passou por transformações graves ao longo dos anos, mantendo seu significado até nas épocas mais avançadas da tecnologia. Com novas iterações, surgem novos métodos de otimização, onde os grandes modelos de idiomas (LLMS) têm um papel crucial a desempenhar.

Sid Probstein, CEO, Swirl, liderou a sessão de Data Summit, “Descobrir dados que você conhece está lá, mas não consegue encontrar,” Explorando as maneiras pelas quais os LLMs podem melhorar drasticamente a recuperação de documentos.

O anual Data Summit A conferência retornou a Boston, de 14 a 15 de maio de 2025, com oficinas de pré-conferência em 13 de maio.

A pesquisa de transformação com o LLMS está encontrando ordem em meio ao caos, de acordo com Probstein. É importante ressaltar que “trata -se de obter pesquisas e LLMs para jogar bem juntos”, acrescentou.

Para impulsionar essa realidade simbiótica, os LLMs podem otimizar a pesquisa, movendo consultas da resposta centrada na resposta para a centrada no documento. Embora muitos vejam o LLMS como a avenida para permitir a pesquisa, ela pode melhorar drasticamente a maneira como a pesquisa é realizada em si mesma.

Em uma pesquisa centrada no documento, informações precisas estão surgidas da versão mais recente dos dados. Uma vez localizado, conversar com o LLM sobre o documento oferece informações ainda mais relevantes. Afinal, “os LLMs não são apenas para pesquisa, eles podem traduzir, eles podem discutir”, disse Probstein, enfatizando como os LLMs podem transcender a pesquisa de texto para outras fontes de dados estruturadas.

Com o aumento de Genai, você pode melhorar as consultas e os documentos para otimizar a pesquisa. Criar um pipeline com o Genai pode melhorar a consulta ou melhorar o próprio documento, levando o LLM a limpar títulos, extrair metadados de dados não estruturados e muito mais.

“Coloque o LLM entre você e os dados e ele pode melhorar seus documentos”, observou Probstein.

Uma maneira popular de melhorar a pesquisa é através do ajuste fino, onde os modelos LLM são treinados com petabytes de dados. Mas em tempo de execução, é uma versão menor e compactada, sem dúvida perdendo informações e induzindo alucinações.

A geração de recuperação agenteada é a chave para limitar as alucinações, de acordo com Probstein, buscando informações que existam e limitando o LLM aos dados fornecidos.

No entanto, Probstein observou que uma alucinação é não Quando um LLM fornece uma resposta baseada nos dados que você forneceu que está errado; isso é um problema com seus dados.

Além disso, “o LLM não conhece o seu negócio. Para que um LLM conheça seu negócio, você precisa compartilhar as informações”, ou seja, através de taxonomias e ontologias. Isso resolve a precisão da saída e o entendimento da consulta, especialmente se alguns detalhes não foram divulgados publicamente.

Por fim, Probstein sugere fornecer ao LLM:

  • Esquema e perfil de bancos de dados
  • Perguntas de amostra
  • Exemplos de consulta
  • Contexto do usuário (função, departamento, tópicos, data)
  • Um ponto final útil de pesquisa do SharePoint

Muitas apresentações da Summit 2025 estão disponíveis para revisão em https://www.dbta.com/datasummit/2025/presentations.aspx.

Solana Token Creator

Comments

No comments yet. Why don’t you start the discussion?

Leave a Reply

Your email address will not be published. Required fields are marked *