文件
quantKonwledge/06_数据流程/数据采集与处理流程.md
Manus Quant Agent 790c0eaa0a feat: 全面优化迭代所有文档 - 增加数据说明+计算公式+名词解释+内部链接
变更统计:
- 70个文件变更 (39个新增 + 31个修改)
- 新增 6554 行内容

优化内容:
1. 30个核心文档增加附录(数据说明/计算公式/参数表/使用场景/常见误区)
   - 第一批: 量化基础/技术指标/策略/信号/品种/数据流/回测/风控/链上/EWO
   - 第二批: AI/案例复盘/多Agent/Hyperliquid/KOL/期权/RWA/券商/BTC/主流币
   - 第三批: ETH/SOL/BNB_DOGE/XAUT/代币化美股/信号优化/tradehk系统
2. 新增38个名词解释wiki条目(Delta对冲/Gamma/Theta/Vega/IV/VaR/CVaR等)
3. 更新全局术语表索引(79个术语/12大类/知识图谱/学习路径)
4. 新增内部链接体系(wiki式交叉引用)
2026-03-06 05:09:34 -05:00

16 KiB
原始文件 Blame 文件历史

数据采集与处理流程

量化交易的核心是数据。本文档详细描述从原始数据采集到可用于策略执行的全流程,涵盖数据源、清洗方法、存储方案和实时流处理。


一、数据源分类

1.1 行情数据Price Data

交易所 REST API

交易所 API 文档 数据类型 限制
Binance https://binance-docs.github.io/apidocs/ K线、Tick、深度 1200 req/min
Bybit https://bybit-docs.com/ K线、Tick、深度 120 req/min
OKX https://www.okx.com/docs-v5/ K线、Tick、深度 60 req/10s
Coinbase https://docs.cdp.coinbase.com/ K线、Tick 10 req/s

WebSocket 实时数据

Binance WebSocket 端点wss://stream.binance.com:9443/ws/
订阅 K线{"method": "SUBSCRIBE", "params": ["btcusdt@kline_1m"]}
订阅 Tick{"method": "SUBSCRIBE", "params": ["btcusdt@aggTrade"]}

tradehk 数据获取实现(参考 binanceApi.ts

  • 使用 Binance REST API 获取历史 K 线数据
  • 使用 WebSocket 订阅实时 K 线更新
  • 支持多时间周期1m、3m、5m、10m、15m、30m、1h、4h、12h、1d、1w

1.2 链上数据On-Chain Data

免费数据源

平台 数据类型 访问方式
Glassnode 链上指标、矿工数据 API免费层有限
Nansen 钱包标签、资金流向 API付费
Dune Analytics 自定义链上查询 SQL 查询(免费)
The Graph DeFi 协议数据 GraphQL API
Etherscan 以太坊交易数据 API免费

关键链上指标

比特币链上指标:
- SOPR已实现利润比率> 1 表示整体盈利,< 1 表示亏损
- MVRV市值/已实现价值):> 3.5 历史上对应牛市顶部
- 交易所净流入:正值表示资金流入交易所(抛压增加)
- 活跃地址数:反映网络使用率和用户活跃度
- 矿工持仓变化:矿工抛售压力指标

1.3 衍生品数据Derivatives Data

资金费率Funding Rate

  • 来源:各交易所永续合约页面或 API
  • 含义:正值 = 多头付给空头,负值 = 空头付给多头
  • 极端值(> 0.1% 或 < -0.1%)往往预示趋势反转

未平仓合约Open Interest

  • 未平仓合约增加 + 价格上涨 = 多头主导,趋势延续
  • 未平仓合约减少 + 价格下跌 = 多头平仓,趋势可能反转

清算数据


1.4 情绪数据Sentiment Data

恐惧贪婪指数Fear & Greed Index

  • 来源Alternative.me API
  • 范围0极度恐惧- 100极度贪婪
  • 极度恐惧(< 20历史上是买入机会
  • 极度贪婪(> 80历史上是卖出时机

社交媒体情绪

  • Twitter/X 提及量和情绪分析
  • Reddit 讨论热度r/Bitcoin、r/CryptoCurrency
  • 工具LunarCrush、Santiment

二、数据清洗流程

2.1 K 线数据清洗

import pandas as pd
import numpy as np

def clean_kline_data(df: pd.DataFrame) -> pd.DataFrame:
    """
    K 线数据清洗流程
    """
    # 1. 删除重复数据
    df = df.drop_duplicates(subset=['timestamp'])
    
    # 2. 按时间排序
    df = df.sort_values('timestamp').reset_index(drop=True)
    
    # 3. 检测并处理缺失 K 线(用前值填充)
    expected_interval = df['timestamp'].diff().mode()[0]
    df = df.set_index('timestamp').asfreq(expected_interval, method='ffill')
    
    # 4. 过滤异常价格(价格为 0 或负值)
    df = df[(df['open'] > 0) & (df['high'] > 0) & 
            (df['low'] > 0) & (df['close'] > 0)]
    
    # 5. 修正 OHLC 逻辑错误high < low 等)
    df['high'] = df[['open', 'high', 'low', 'close']].max(axis=1)
    df['low'] = df[['open', 'high', 'low', 'close']].min(axis=1)
    
    # 6. 处理成交量异常(成交量为负)
    df['volume'] = df['volume'].clip(lower=0)
    
    # 7. 过滤"刷量"数据(成交量极端异常)
    volume_mean = df['volume'].rolling(100).mean()
    volume_std = df['volume'].rolling(100).std()
    df = df[df['volume'] < volume_mean + 5 * volume_std]
    
    return df

2.2 常见数据问题

问题 原因 处理方法
缺失 K 线 网络中断、交易所维护 前值填充或插值
价格跳空 正常市场现象 保留,但在回测中注意
成交量异常 刷量行为 统计方法过滤极端值
时区问题 不同交易所时区不同 统一转换为 UTC
精度问题 浮点数精度 使用 Decimal 类型

三、数据存储方案

3.1 本地存储(适合小规模)

数据目录结构:
/data/
  ├── klines/
  │   ├── BTCUSDT/
  │   │   ├── 1m/2024-01.parquet
  │   │   ├── 1h/2024-01.parquet
  │   │   └── 1d/all.parquet
  │   └── ETHUSDT/
  │       └── ...
  ├── onchain/
  │   ├── glassnode/
  │   └── nansen/
  └── sentiment/
      └── fear_greed/

推荐格式Parquet列式存储,压缩率高,读取速度快

# 保存为 Parquet
df.to_parquet('BTCUSDT_1h_2024.parquet', compression='snappy')

# 读取 Parquet
df = pd.read_parquet('BTCUSDT_1h_2024.parquet')

3.2 数据库存储(适合中大规模)

时序数据库(推荐 InfluxDB 或 TimescaleDB

-- TimescaleDB 建表示例
CREATE TABLE klines (
    time        TIMESTAMPTZ NOT NULL,
    symbol      TEXT NOT NULL,
    interval    TEXT NOT NULL,
    open        DOUBLE PRECISION,
    high        DOUBLE PRECISION,
    low         DOUBLE PRECISION,
    close       DOUBLE PRECISION,
    volume      DOUBLE PRECISION
);

-- 创建超表TimescaleDB 特有)
SELECT create_hypertable('klines', 'time');

四、实时数据流处理

4.1 WebSocket 数据流架构

Binance WebSocket
      ↓
数据接收层asyncio
      ↓
数据解析与验证
      ↓
指标实时计算
      ↓
信号生成
      ↓
订单执行

4.2 Python 实现示例

import asyncio
import websockets
import json
from collections import deque

class RealtimeDataFeed:
    def __init__(self, symbol: str, interval: str, max_candles: int = 500):
        self.symbol = symbol.lower()
        self.interval = interval
        self.candles = deque(maxlen=max_candles)
        self.ws_url = f"wss://stream.binance.com:9443/ws/{self.symbol}@kline_{interval}"
    
    async def connect(self):
        async with websockets.connect(self.ws_url) as ws:
            async for message in ws:
                data = json.loads(message)
                kline = data['k']
                
                candle = {
                    'time': kline['t'] // 1000,
                    'open': float(kline['o']),
                    'high': float(kline['h']),
                    'low': float(kline['l']),
                    'close': float(kline['c']),
                    'volume': float(kline['v']),
                    'is_closed': kline['x']  # K 线是否已收盘
                }
                
                if candle['is_closed']:
                    self.candles.append(candle)
                    await self.on_candle_closed(candle)
    
    async def on_candle_closed(self, candle: dict):
        """K 线收盘后触发信号计算"""
        # 在此调用指标计算和信号生成逻辑
        pass

五、数据质量检查清单

在将数据用于回测或实盘之前,务必完成以下检查:

  • 数据时间范围是否覆盖目标回测区间
  • 是否存在缺失 K 线(检查时间戳连续性)
  • 成交量是否存在异常值(刷量)
  • 价格是否经过复权处理(如有分叉或重组)
  • 时区是否统一(建议使用 UTC
  • 数据精度是否足够(小数位数)
  • 是否存在"未来数据泄露"look-ahead bias

参考资料


附录:数据说明与补充

本文档旨在对核心的数据采集与处理流程进行深化和扩展,提供更详尽的数据规范、计算公式、应用场景及常见误区,以帮助量化研究员和开发者更精确、高效地利用各类数据。

一、核心指标数据说明与应用

为了确保数据在不同策略和模型中的一致性和准确性,我们对文档中提到的核心指标提供标准化的说明。

1.1 链上指标 (On-Chain Metrics)

链上数据为市场宏观状态提供了独特的视角。以下是对关键链上指标的详细阐述。

指标名称 计算公式 (LaTeX) 数据范围与单位 精度要求 数据来源
SOPR SOPR = \frac{\sum P_{\text{realized}}}{\sum P_{\text{created}}} 无单位比率, 通常在 0.9-1.2 波动 4 位小数 Glassnode, CryptoQuant
MVRV MVRV = \frac{\text{Market Value}}{\text{Realized Value}} 无单位比率, 通常在 0.5-4.0 波动 4 位小数 Glassnode, CoinMetrics
交易所净流入 V_{\text{inflow}} - V_{\text{outflow}} 交易对的币种单位 (如 BTC, ETH) 8 位小数 各大交易所, Nansen

使用场景补充:

  • SOPR (已实现利润比率):

    1. 趋势确认: 在上升趋势中,SOPR 持续大于 1 且在回调中能迅速反弹至 1 以上,表明市场信心强劲,投资者倾向于持有而非亏本卖出,是趋势健康的信号。
    2. 熊市底部识别: 当 SOPR 长时间处于 1 以下,表明市场处于持续亏损状态。若 SOPR 出现向上突破 1 的迹象,可能预示着市场恐慌情绪的终结和底部的形成。
  • MVRV (市值/已实现价值):

    1. 宏观周期定位: MVRV Z-ScoreMVRV 的标准化版本)是判断市场处于周期顶/底部的经典工具。Z-Score 进入红色区域(>7通常对应历史牛市顶部,进入绿色区域<0则对应历史熊市底部,可用于长线仓位的建立或退出。
    2. 价值投资参考: 将 MVRV 比率视为资产的“估值倍数”。当 MVRV 远低于其历史均值(如低于 1时,可以认为当前市值相对其“链上成本基础”处于低估状态,为价值投资者提供了潜在的入场机会。

1.2 衍生品数据 (Derivatives Data)

衍生品数据反映了市场杠杆水平和投机情绪,是短期价格波动的重要驱动因素。

指标名称 计算公式 (概念) 数据范围与单位 精度要求 数据来源
资金费率 Premium + clamp(Interest - Premium, \pm 0.05\%) 百分比 (%), 通常在 ±0.1% 波动 6 位小数 各大交易所 API
未平仓合约 \sum \text{Contracts}_{\text{open}} 美元 (USD) 或币本位 (如 BTC) 2 位小数 (USD) 各大交易所 API, Coinglass

使用场景补充:

  • 资金费率 (Funding Rate):

    1. 费率套利策略: 当不同交易所或不同合约(如 U本位 vs. 币本位)之间出现显著的资金费率差异时,可以通过在费率高的一方做空、费率低的一方做多,来赚取稳定的费率差,这是一种低风险的套利策略。
    2. 市场情绪极值反转: 当资金费率达到极端正值(如 >0.1%),表明市场杠杆做多情绪极度狂热,此时价格对负面消息异常敏感,是潜在的短线回调甚至反转的信号。反之,极端负费率则可能是空头陷阱和轧空行情的预兆。
  • 未平仓合约 (Open Interest):

    1. 趋势强度验证: “价涨量增”是经典的多头趋势确认信号。若价格上涨的同时,未平仓合约也稳步增加,说明有新资金持续入场做多,趋势较为健康。反之,若价格上涨但 OI 下降,则可能是空头回补驱动的,上涨动力不足。
    2. 拥挤交易识别: 当价格在关键阻力位附近横盘,而 OI 却异常快速地增长,这可能意味着多空双方在此处大量建仓,形成“拥挤交易”。一旦价格突破,很可能引发大规模的止损和清算,导致剧烈波动。

二、数据格式与参数参考

2.1 数据格式规范

标准化的数据格式是保证数据处理流程稳健性的基石。所有时间序列数据应遵循统一的结构。

K线 (Kline/Candlestick) 数据格式:

推荐使用 JSON 数组或 Parquet 文件存储,单条 K 线数据结构如下:

{
  "timestamp": 1672531200000,       // Unix 时间戳 (毫秒, UTC)
  "open": 16500.00,                 // 开盘价 (浮点数)
  "high": 16550.50,                 // 最高价 (浮点数)
  "low": 16480.25,                  // 最低价 (浮点数)
  "close": 16530.75,                // 收盘价 (浮点数)
  "volume": 12345.678,              // 成交量 (以基础资产计, 如 BTC)
  "turnover": 204089123.45          // 成交额 (以计价资产计, 如 USDT)
}
  • 时间戳: 必须为 UTC 时区的 Unix 时间戳(毫秒级),以避免任何时区混淆。处理时建议统一转换为 datetime 对象。
  • 价格精度: 价格字段应使用 Decimal 类型或高精度浮点数(float64)进行存储和计算,避免浮点数精度损失问题。
  • 成交量/额: 根据交易所提供的单位进行存储,通常成交量为币的数量,成交额为计价货币的金额。

2.2 数据清洗参数参考表

clean_kline_data 函数中,部分参数是可调的,其选择会影响清洗效果。下表给出了推荐值与合理范围。

参数 描述 推荐值 取值范围 调整建议
rolling_window 用于计算成交量均值和标准差的滚动窗口大小 100 30 - 200 对于高频数据或波动剧烈的市场,可适当减小窗口;对于低频数据,可增大窗口。
std_multiplier 判断成交量为异常值的标准差倍数 5 3 - 10 较小的值会过滤掉更多数据,可能误伤正常波动;较大的值则可能放过一些刷量数据。

三、常见误区与正确理解

  1. 误区:数据越多越好

    • 正确理解:数据的质量远比数量重要。包含大量噪声、错误或不一致性的数据会严重误导模型训练和策略回测。应将重心放在数据清洗、验证和交叉比对上,而非盲目追求更长的时间跨度或更高的数据频率。
  2. 误区:资金费率为正就代表市场看涨

    • 正确理解:资金费率主要反映的是永续合约价格与现货价格之间的基差。虽然持续为正通常与多头情绪相关,但也可能是由套利者(做多现货、做空永续)驱动的。必须结合未平仓合约、价格趋势和成交量综合判断,单一依赖资金费率容易产生误判。
  3. 误区:可以直接使用交易所 API 返回的 K 线

    • 正确理解:交易所 API 返回的数据可能存在空缺如服务器维护、错误如价格为0或逻辑矛盾如最高价低于最低价。直接使用这些原始数据进行回测,会导致策略表现严重失真。如文档中 clean_kline_data 函数所示,严格的清洗流程是不可或缺的一步。
  4. 误区:回测中的高收益能直接转化为实盘利润

    • 正确理解回测与实盘存在巨大鸿沟。滑点、交易延迟、API 限制、流动性差异以及“未来数据泄露”等问题都会侵蚀理论收益。在数据处理阶段,必须警惕未来函数(如使用当日收盘价计算开盘时的信号),并为回测增加保守的交易成本假设。
  5. 误区:链上数据可以精确预测价格

    • 正确理解:链上数据(如 SOPRMVRV)是反映市场宏观状态和长期投资者行为的“慢变量”,对于判断市场周期和情绪拐点有重要价值,但对短期价格波动的预测能力有限。应将其作为宏观过滤器或辅助决策工具,而非高频交易信号。