Com o Gemini 1.5 Flash Large Language Model (LLM) do Google, as organizações indianas de todos os setores, incluindo o setor público, terão agora a opção de armazenar seus dados em repouso e conduzir processos de aprendizado de máquina inteiramente na Índia. A mudança ocorre em meio à crescente demanda por processamento local de dados por parte das empresas indianas.
Vikram Bedi, vice-presidente e diretor administrativo nacional do Google Cloud Índia, disse que esta opção será particularmente útil para empresas do setor público e de serviços financeiros, dada a natureza sensível dos dados que manipulam.
Clique aqui para se conectar conosco no WhatsApp
Em uma mesa redonda de mídia na quinta-feira, Bedi disse que o Gemini 1.5 em Flash beneficiará as startups no país, reduzindo o custo do uso de modelos locais de armazenamento e processamento de dados e melhorando a latência em alguns setores.
“O Google é o único fornecedor que fornece uma pilha completa de IA de ponta a ponta. Todos os outros fornecedores estão comprando GPUs, marcando-as e vendendo-as, ou terceirizando outras tecnologias de IA, marcando-as e vendendo-as. A razão pela qual mencionei isso é que a relação custo-benefício se torna um fator muito importante quando você começa a entrar em produção e escala. Daí a capacidade do Google de oferecer o desempenho certo pelo preço”, disse Bedi.
Ele também acrescentou que as obrigações regulatórias e a demanda da indústria são os principais motivos para o Google iniciar o processamento local.
Publicado pela primeira vez: 03 de outubro de 2024 | 21h50 É