shiyu-coder/Kronos

GitHub: shiyu-coder/Kronos

Kronos 是一款专为金融市场 K 线序列设计的基础大模型,通过独特的离散化分词与 Transformer 架构,解决高噪声金融数据的量化预测任务。

Stars: 16890 | Forks: 3184

Kronos: A Foundation Model for the Language of Financial Markets

Hugging Face Live Demo Last Commit GitHub Stars GitHub Forks License
Deutsch | Español | Français | 日本語 | 한국어 | Português | Русский | 中文

## 📰 新闻 * 🚩 **[2025.11.10]** Kronos 已被 AAAI 2026 接收。 * 🚩 **[2025.08.17]** 我们已发布微调脚本!查看这些脚本以将 Kronos 适配到您自己的任务中。 * 🚩 **[2025.08.02]** 我们的论文现已在 [arXiv](https://arxiv.org/abs/2508.02739) 上线!

## 📜 简介 **Kronos** 是一系列仅解码器 的基础模型,专为金融市场的“语言”——K 线序列——而预训练。与通用的 TSFM 不同,Kronos 旨在处理金融数据独特的、高噪声特性。它利用了一种新颖的两阶段框架: 1. 一个专门的分词器首先将连续的多维 K 线数据 (OHLCV) 量化为**分层离散 Token**。 2. 然后,一个大型自回归 Transformer 在这些 Token 上进行预训练,使其能够作为多样化量化任务的统一模型。

## ✨ 在线演示 我们搭建了一个在线演示来可视化 Kronos 的预测结果。该网页展示了对未来 24 小时 **BTC/USDT** 交易对的预测。 **👉 [在此访问在线演示](https://shiyu-coder.github.io/Kronos-demo/)** ## 📦 模型库 我们发布了不同规模的预训练模型系列,以满足不同的计算和应用需求。所有模型均可从 Hugging Face Hub 获取。 | 模型 | Tokenizer | 上下文长度 | 参数量 | 开源 | |--------------|----------------------------------------------------------------------------------| -------------- | ------ |-------------------------------------------------------------------------| | Kronos-mini | [Kronos-Tokenizer-2k](https://huggingface.co/NeoQuasar/Kronos-Tokenizer-2k) | 2048 | 4.1M | ✅ [NeoQuasar/Kronos-mini](https://huggingface.co/NeoQuasar/Kronos-mini) | | Kronos-small | [Kronos-Tokenizer-base](https://huggingface.co/NeoQuasar/Kronos-Tokenizer-base) | 512 | 24.7M | ✅ [NeoQuasar/Kronos-small](https://huggingface.co/NeoQuasar/Kronos-small) | | Kronos-base | [Kronos-Tokenizer-base](https://huggingface.co/NeoQuasar/Kronos-Tokenizer-base) | 512 | 102.3M | ✅ [NeoQuasar/Kronos-base](https://huggingface.co/NeoQuasar/Kronos-base) | | Kronos-large | [Kronos-Tokenizer-base](https://huggingface.co/NeoQuasar/Kronos-Tokenizer-base) | 512 | 499.2M | ❌ | ## 🚀 快速开始 ### 安装 1. 安装 Python 3.10+,然后安装依赖: ``` pip install -r requirements.txt ``` ### 📈 进行预测 使用 `KronosPredictor` 类进行预测非常简单。它处理数据预处理、归一化、预测和反归一化,让您只需几行代码即可从原始数据获得预测结果。 **重要提示**:`Kronos-small` 和 `Kronos-base` 的 `max_context` 为 **512**。这是模型可以处理的最大序列长度。为了获得最佳性能,建议输入数据长度(即 `lookback`)不要超过此限制。`KronosPredictor` 将自动处理较长上下文的截断。 以下是进行首次预测的分步指南。 #### 1. 加载 Tokenizer 和模型 首先,从 Hugging Face Hub 加载预训练的 Kronos 模型及其对应的分词器。 ``` from model import Kronos, KronosTokenizer, KronosPredictor # 从 Hugging Face Hub 加载 tokenizer = KronosTokenizer.from_pretrained("NeoQuasar/Kronos-Tokenizer-base") model = Kronos.from_pretrained("NeoQuasar/Kronos-small") ``` #### 2. 实例化预测器 创建 `KronosPredictor` 的实例,传入模型、分词器和所需的设备。 ``` # 初始化 predictor predictor = KronosPredictor(model, tokenizer, max_context=512) ``` #### 3. 准备输入数据 `predict` 方法需要三个主要输入: - `df`:包含历史 K 线数据的 pandas DataFrame。它必须包含 `['open', 'high', 'low', 'close']` 列。`volume` 和 `amount` 是可选的。 - `x_timestamp`:与 `df` 中历史数据对应的时间戳 pandas Series。 - `y_timestamp`:您想要预测的未来时间段的时间戳 pandas Series。 ``` import pandas as pd # 加载您的数据 df = pd.read_csv("./data/XSHG_5min_600977.csv") df['timestamps'] = pd.to_datetime(df['timestamps']) # 定义上下文窗口和预测长度 lookback = 400 pred_len = 120 # 为 predictor 准备输入 x_df = df.loc[:lookback-1, ['open', 'high', 'low', 'close', 'volume', 'amount']] x_timestamp = df.loc[:lookback-1, 'timestamps'] y_timestamp = df.loc[lookback:lookback+pred_len-1, 'timestamps'] ``` #### 4. 生成预测 调用 `predict` 方法生成预测。您可以使用 `T`、`top_p` 和 `sample_count` 等参数控制采样过程,以进行概率预测。 ``` # 生成预测 pred_df = predictor.predict( df=x_df, x_timestamp=x_timestamp, y_timestamp=y_timestamp, pred_len=pred_len, T=1.0, # Temperature for sampling top_p=0.9, # Nucleus sampling probability sample_count=1 # Number of forecast paths to generate and average ) print("Forecasted Data Head:") print(pred_df.head()) ``` `predict` 方法返回一个 pandas DataFrame,其中包含 `open`、`high`、`low`、`close`、`volume` 和 `amount` 的预测值,并以您提供的 `y_timestamp` 为索引。 为了高效处理多个时间序列,Kronos 提供了 `predict_batch` 方法,能够同时对多个数据集进行并行预测。当您需要一次预测多个资产或时间段时,这特别有用。 ``` # 为批量预测准备多个数据集 df_list = [df1, df2, df3] # List of DataFrames x_timestamp_list = [x_ts1, x_ts2, x_ts3] # List of historical timestamps y_timestamp_list = [y_ts1, y_ts2, y_ts3] # List of future timestamps # 生成批量预测 pred_df_list = predictor.predict_batch( df_list=df_list, x_timestamp_list=x_timestamp_list, y_timestamp_list=y_timestamp_list, pred_len=pred_len, T=1.0, top_p=0.9, sample_count=1, verbose=True ) # pred_df_list 包含与输入顺序相同的预测结果 for i, pred_df in enumerate(pred_df_list): print(f"Predictions for series {i}:") print(pred_df.head()) ``` **批量预测的重要要求:** - 所有序列必须具有相同的历史长度(回溯窗口) - 所有序列必须具有相同的预测长度 (`pred_len`) - 每个 DataFrame 必须包含所需列:`['open', 'high', 'low', 'close']` - `volume` 和 `amount` 列是可选的,如果缺失将填充为零 `predict_batch` 方法利用 GPU 并行性进行高效处理,并自动独立处理每个序列的归一化和反归一化。 #### 5. 示例与可视化 有关包含数据加载、预测和绘图的完整可运行脚本,请参阅 [`examples/prediction_example.py`](examples/prediction_example.py)。 运行此脚本将生成一个图表,将真实数据与模型的预测进行比较,类似于下图所示:

Forecast Example

此外,我们提供了一个在无 Volume 和 Amount 数据情况下进行预测的脚本,该脚本位于 [`examples/prediction_wo_vol_example.py`](examples/prediction_wo_vol_example.py)。 ## 🔧 在您自己的数据上进行微调(A 股市场示例) 我们提供了完整的流水线,用于在您自己的数据集上微调 Kronos。作为一个示例,我们演示如何使用 [Qlib](https://github.com/microsoft/qlib) 准备来自中国 A 股市场的数据并进行简单的回测。 微调过程分为四个主要步骤: 1. **配置**:设置路径和超参数。 2. **数据准备**:使用 Qlib 处理并拆分您的数据。 3. **模型微调**:微调 Tokenizer 和 Predictor 模型。 4. **回测**:评估微调后模型的性能。 ### 前置条件 1. 首先,确保您已安装 `requirements.txt` 中的所有依赖项。 2. 此流水线依赖于 `qlib`。请安装它: pip install pyqlib 3. 您需要准备您的 Qlib 数据。遵循 [官方 Qlib 指南](https://github.com/microsoft/qlib) 下载并在本地设置您的数据。示例脚本假定您使用的是日线频率数据。 ### 第 1 步:配置您的实验 数据、训练和模型路径的所有设置都集中在 `finetune/config.py` 中。在运行任何脚本之前,请根据您的环境**修改以下路径**: * `qlib_data_path`:您本地 Qlib 数据目录的路径。 * `dataset_path`:保存处理后的训练/验证/测试 pickle 文件的目录。 * `save_path`:保存模型检查点的基础目录。 * `backtest_result_path`:保存回测结果的目录。 * `pretrained_tokenizer_path` 和 `pretrained_predictor_path`:您想要从其开始的预训练模型的路径(可以是本地路径或 Hugging Face 模型名称)。 您还可以调整其他参数,如 `instrument`、`train_time_range`、`epochs` 和 `batch_size` 以适应您的特定任务。如果您不使用 [Comet.ml](https://www.comet.com/),请设置 `use_comet = False`。 ### 第 2 步:准备数据集 运行数据预处理脚本。此脚本将从您的 Qlib 目录加载原始市场数据,对其进行处理,将其拆分为训练集、验证集和测试集,并将它们保存为 pickle 文件。 ``` python finetune/qlib_data_preprocess.py ``` 运行后,您将在配置中 `dataset_path` 指定的目录中找到 `train_data.pkl`、`val_data.pkl` 和 `test_data.pkl`。 ### 第 3 步:运行微调 微调过程包含两个阶段:微调分词器,然后微调预测器。这两个训练脚本均设计为使用 `torchrun` 进行多 GPU 训练。 #### 3.1 微调 Tokenizer 此步骤将分词器调整到您特定领域的数据分布。 ``` # 将 NUM_GPUS 替换为您想要使用的 GPU 数量(例如 2) torchrun --standalone --nproc_per_node=NUM_GPUS finetune/train_tokenizer.py ``` 最佳的分词器检查点将保存到 `config.py` 中配置的路径(派生自 `save_path` 和 `tokenizer_save_folder_name`)。 #### 3.2 微调预测器 此步骤针对预测任务微调主要的 Kronos 模型。 ``` # 将 NUM_GPUS 替换为您想要使用的 GPU 数量(例如 2) torchrun --standalone --nproc_per_node=NUM_GPUS finetune/train_predictor.py ``` 最佳预测器检查点将保存到 `config.py` 中配置的路径。 ### 第 4 步:通过回测进行评估 最后,运行回测脚本来评估您的微调模型。该脚本加载模型,在测试集上执行推理,生成预测信号(例如预测价格变化),并运行一个简单的 top-K 策略回测。 ``` # 指定用于推理的 GPU python finetune/qlib_test.py --device cuda:0 ``` 该脚本将在您的控制台中输出详细的性能分析,并生成一个图表,显示您的策略与基准的累积收益曲线,类似于下图:

Backtest Example

### 💡 从演示到生产环境:重要考虑因素 * **原始信号与纯 Alpha**:本演示中模型生成的信号是原始预测。在现实世界的量化工作流中,这些信号通常会输入到投资组合优化模型中。该模型将应用约束以中和对常见风险因子的敞口(例如市场 beta、规模和价值等风格因子),从而分离出 **"pure alpha"** 并提高策略的稳健性。 * **数据处理**:提供的 `QlibDataset` 是一个示例。对于不同的数据源或格式,您需要调整数据加载和预处理逻辑。 * **策略和回测复杂性**:此处使用的简单 top-K 策略是一个基本的起点。生产级策略通常包含更复杂的投资组合构建逻辑、动态仓位调整和风险管理(例如止损/止盈规则)。此外,高保真回测应精确模拟交易成本、滑点和市场影响,以提供对现实世界性能的更准确估计。 ## 📖 引用 如果您在研究中使用了 Kronos,我们将不胜感激您引用我们的[论文](https://arxiv.org/abs/2508.02739): ``` @misc{shi2025kronos, title={Kronos: A Foundation Model for the Language of Financial Markets}, author={Yu Shi and Zongliang Fu and Shuo Chen and Bohan Zhao and Wei Xu and Changshui Zhang and Jian Li}, year={2025}, eprint={2508.02739}, archivePrefix={arXiv}, primaryClass={q-fin.ST}, url={https://arxiv.org/abs/2508.02739}, } ``` ## 📜 许可证 本项目基于 [MIT License](./LICENSE) 开源。
标签:AAAI, Apex, DLL 劫持, DNS解析, Hugging Face, IaC 扫描, LLM, NLP, Unmanaged PE, 人工智能, 凭据扫描, 基础模型, 大语言模型, 开源项目, 时间序列预测, 机器学习, 深度学习, 用户模式Hook绕过, 逆向工具, 量化投资, 金融分析, 金融市场, 金融科技, 金融语言