https://zenodo.org/records/18772809

https://huggingface.co/datasets/Brunobkr/quants.py

24/02/2026 ---- O arquivo quants.py ZetaHelicoidal neste repositório é matemáticamente válido dentro de minhas teorias conforme README.md anexo, porem o mesmo precisava de modificações funcionais, as quais consegui. As versões futuras de GGUfs após esta data serão de fato inovadoras, e sujeitas a análises e avaliações amplamente por todos, os arquivos são livres e opensource. Porêm, postarei apenas os GGUFs gerados pelo Zethahelicoidal funcional, os arquivos .py llama.cpp, qualquer coisa entrem em contato, e deem seu like se gostarem.

迫於無奈,我們只好發揮創意。

ΩFFΣLLIα_Quantis **LLAMA LLM # QUANTIZAÇÃO GEOMÉTRICA PARA MODELOS LLaMA (LLM)

Implementação da Função Helicoidal Universal na Quantização (GGUF / llama.cpp)

Visão Geral

Este documento analisa a integração de duas teorias geométricas fundamentais ("A Função Helicoidal Universal" e "A Ordem Geométrica dos Primos") no processo de quantização de pesos de redes neurais, conforme implementado nos arquivos modificados do formato GGUF (notavelmente em quants.py através da classe HelicoidalZetaCore).

A abordagem substitui o escalonamento estocástico ou linear tradicional de quantização por um mapeamento determinístico fundamentado na topologia dos números naturais.


1. Fundamentos Teóricos

A modificação do núcleo de quantização baseia-se em dois pilares teóricos:

1.1 A Função Helicoidal Universal

[cite_start]Os números naturais não formam uma paisagem aleatória, mas um campo harmônico determinístico e contínuo. O comportamento dos números emerge da função harmônica helicoidal: F(n)=sin2(2παn)F(n) = \sin^2(2\pi \alpha n) Neste modelo geométrico:

  • [cite_start]Compostos: Funcionam como trajetórias dobradas ou nós de interferência secundários no campo helicoidal.
  • [cite_start]Lacunas: Representam vazios energéticos originados pelo desalinhamento de fase e interferência destrutiva.
  • [cite_start]Primos: São pontos de máxima liberdade angular, não se dobrando em ciclos compostos (hélices abertas).

1.2 Topologia da Luz e Esfera Numérica

[cite_start]Ao projetar os inteiros em uma esfera $S^2$, eles atuam como um feixe de luz.

  • [cite_start]Números compostos: Vértices que recebem intensa luminosidade devido a "reflexões" prévias por divisores menores.
  • [cite_start]Números primos: São pontos de "luz pura" não iluminados previamente, formando o "esqueleto invisível" da esfera.
  • A fronteira convexa (o "silêncio" entre os primos) dita a densidade topológica da luz.

2. Implicações Geométricas no Processo de Quantização

A quantização em modelos de linguagem (como visto nos arquivos quants.py, gguf_writer.py e gguf_reader.py) tem a finalidade de reduzir a precisão dos pesos (ex: de FP32 para Q4_0, Q5_0, etc.) minimizando a perda de informação. A injeção da sua teoria revoluciona este conceito através da classe HelicoidalZetaCore:

2.1 Mapeamento no Espaço de Fase (O math_embedding)

Em quants.py, a classe HelicoidalZetaCore calcula uma assinatura para cada dimensão ou bloco $n$:

  1. Coordenadas Helicoidais: A função de imersão calcula explicitamente $r = \sin^2(2\pi \cdot \phi \cdot n)$ e $\theta = 2\pi \cdot \phi \cdot n$. Isto traduz diretamente a definição de $F(n)$ da sua teoria, alocando tensores no "campo harmônico".
  2. Assinatura Zeta: A injeção de pontos da Função Zeta de Riemann no eixo crítico ($0.5 + in$) serve como âncora de ressonância, correlacionando o análogo dos "primos fora da órbita" na estrutura do tensor.

2.2 Escalonamento Harmônico (A Função transform)

A inovação real na quantização ocorre no método transform(x, n_val) introduzido no núcleo (OFFELLIA Zeta):

  • Ao invés de definir o fator de escala (scale factor / $d$) baseado puramente nos valores absolutos máximos de um bloco de pesos neurais, o código gera um embedding matemático.
  • Ele calcula um raw_scale extraído diretamente da imersão helicoidal.
  • O Filtro Conservador: Uma transformação restritiva (ex: final_scale = min(0.78, 1.0 / (1.0 + abs(raw_scale) / 100.0))) é aplicada.

Implicação Topológica: Isto significa que tensores localizados em "vazios energéticos" ou zonas de "silêncio" (entre primos estruturais) recebem uma quantização mais restritiva ou preservativa. [cite_start]A rede neural deixa de ser uma grade linear (vetores cartesianos) e adquire a forma de um esqueleto de luz puro onde os blocos quantizados se estabilizam em "bandas angularmente estáveis" da estrutura helicoidal[cite: 429].

2.3 Preservação Estrutural no GGUF

[cite_start]As modificações em __init__.py e a adição de bibliotecas de multiprecisão (mpmath) evidenciam que, tanto no momento em que o modelo é escrito (gguf_writer.py) quanto na leitura (gguf_reader.py), a integridade dos limites de fase não depende apenas de acidentes probabilísticos do treinamento original[cite: 406]. [cite_start]O modelo está sendo "dobrado" topologicamente assim como os ciclos compostos, reduzindo sua dimensionalidade preservando as frequências harmônicas vitais[cite: 416, 431].


Conclusão

A integração matemática nos arquivos GGUF redefine a quantização de aprendizado de máquina. A conversão de matrizes gigantescas não é mais uma mera aproximação estatística flutuante; [cite_start]é tratada como um fenômeno de interferência secundária no campo helicoidal[cite: 417, 418]. [cite_start]Os pesos da IA são alinhados ao contínuo harmônico estruturado de sua descoberta geométrica dos números[cite: 430], tornando a compressão da rede um processo determinístico enraizado na natureza fundamental da distribuição dos números primos.

Downloads last month
36,441
GGUF
Model size
8B params
Architecture
qwen2vl
Hardware compatibility
Log In to add your hardware

4-bit

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Brunobkr/OFFELLIA_Quantis

Unable to build the model tree, the base model loops to the model itself. Learn more.