monitoring_tar полностью функционален
This commit is contained in:
1002
PARSER_DEVELOPMENT_GUIDE.md
Normal file
1002
PARSER_DEVELOPMENT_GUIDE.md
Normal file
File diff suppressed because it is too large
Load Diff
BIN
monitoring_tar_correct.zip
Normal file
BIN
monitoring_tar_correct.zip
Normal file
Binary file not shown.
BIN
monitoring_tar_test.zip
Normal file
BIN
monitoring_tar_test.zip
Normal file
Binary file not shown.
BIN
python_parser/adapters/monitoring_tar_test.zip
Normal file
BIN
python_parser/adapters/monitoring_tar_test.zip
Normal file
Binary file not shown.
@@ -1,4 +1,5 @@
|
||||
from .monitoring_fuel import MonitoringFuelParser
|
||||
from .monitoring_tar import MonitoringTarParser
|
||||
from .svodka_ca import SvodkaCAParser
|
||||
from .svodka_pm import SvodkaPMParser
|
||||
from .svodka_repair_ca import SvodkaRepairCAParser
|
||||
@@ -6,6 +7,7 @@ from .statuses_repair_ca import StatusesRepairCAParser
|
||||
|
||||
__all__ = [
|
||||
'MonitoringFuelParser',
|
||||
'MonitoringTarParser',
|
||||
'SvodkaCAParser',
|
||||
'SvodkaPMParser',
|
||||
'SvodkaRepairCAParser',
|
||||
|
||||
302
python_parser/adapters/parsers/monitoring_tar.py
Normal file
302
python_parser/adapters/parsers/monitoring_tar.py
Normal file
@@ -0,0 +1,302 @@
|
||||
import os
|
||||
import zipfile
|
||||
import tempfile
|
||||
import pandas as pd
|
||||
from typing import Dict, Any, List
|
||||
from core.ports import ParserPort
|
||||
from adapters.pconfig import find_header_row, SNPZ_IDS, data_to_json
|
||||
|
||||
|
||||
class MonitoringTarParser(ParserPort):
|
||||
"""Парсер для мониторинга ТЭР (топливно-энергетических ресурсов)"""
|
||||
|
||||
name = "monitoring_tar"
|
||||
|
||||
def __init__(self):
|
||||
super().__init__()
|
||||
self.data_dict = {}
|
||||
self.df = None
|
||||
|
||||
# Регистрируем геттеры
|
||||
self.register_getter('get_tar_data', self._get_tar_data_wrapper, required_params=['mode'])
|
||||
self.register_getter('get_tar_full_data', self._get_tar_full_data_wrapper, required_params=[])
|
||||
|
||||
def parse(self, file_path: str, params: Dict[str, Any] = None) -> pd.DataFrame:
|
||||
"""Парсит ZIP архив с файлами мониторинга ТЭР"""
|
||||
print(f"🔍 DEBUG: MonitoringTarParser.parse вызван с файлом: {file_path}")
|
||||
|
||||
if not file_path.endswith('.zip'):
|
||||
raise ValueError("MonitoringTarParser поддерживает только ZIP архивы")
|
||||
|
||||
# Обрабатываем ZIP архив
|
||||
result = self._parse_zip_archive(file_path)
|
||||
|
||||
# Конвертируем результат в DataFrame для совместимости с ReportService
|
||||
if result:
|
||||
data_list = []
|
||||
for id, data in result.items():
|
||||
data_list.append({
|
||||
'id': id,
|
||||
'data': data,
|
||||
'records_count': len(data.get('total', [])) + len(data.get('last_day', []))
|
||||
})
|
||||
|
||||
df = pd.DataFrame(data_list)
|
||||
print(f"🔍 DEBUG: Создан DataFrame с {len(df)} записями")
|
||||
return df
|
||||
else:
|
||||
print("🔍 DEBUG: Возвращаем пустой DataFrame")
|
||||
return pd.DataFrame()
|
||||
|
||||
def _parse_zip_archive(self, zip_path: str) -> Dict[str, Any]:
|
||||
"""Парсит ZIP архив с файлами мониторинга ТЭР"""
|
||||
print(f"📦 Обработка ZIP архива: {zip_path}")
|
||||
|
||||
with tempfile.TemporaryDirectory() as temp_dir:
|
||||
with zipfile.ZipFile(zip_path, 'r') as zip_ref:
|
||||
zip_ref.extractall(temp_dir)
|
||||
|
||||
# Ищем файлы мониторинга ТЭР
|
||||
tar_files = []
|
||||
for root, dirs, files in os.walk(temp_dir):
|
||||
for file in files:
|
||||
# Поддерживаем файлы svodka_tar_*.xlsx (основные) и monitoring_*.xlsm (альтернативные)
|
||||
if (file.startswith('svodka_tar_') and file.endswith('.xlsx')) or (file.startswith('monitoring_') and file.endswith('.xlsm')):
|
||||
tar_files.append(os.path.join(root, file))
|
||||
|
||||
if not tar_files:
|
||||
raise ValueError("В архиве не найдены файлы мониторинга ТЭР")
|
||||
|
||||
print(f"📁 Найдено {len(tar_files)} файлов мониторинга ТЭР")
|
||||
|
||||
# Обрабатываем каждый файл
|
||||
all_data = {}
|
||||
for file_path in tar_files:
|
||||
print(f"📁 Обработка файла: {file_path}")
|
||||
|
||||
# Извлекаем номер месяца из имени файла
|
||||
filename = os.path.basename(file_path)
|
||||
month_str = self._extract_month_from_filename(filename)
|
||||
print(f"📅 Месяц: {month_str}")
|
||||
|
||||
# Парсим файл
|
||||
file_data = self._parse_single_file(file_path, month_str)
|
||||
if file_data:
|
||||
all_data.update(file_data)
|
||||
|
||||
return all_data
|
||||
|
||||
def _extract_month_from_filename(self, filename: str) -> str:
|
||||
"""Извлекает номер месяца из имени файла"""
|
||||
# Для файлов типа svodka_tar_SNPZ_01.xlsx или monitoring_SNPZ_01.xlsm
|
||||
parts = filename.split('_')
|
||||
if len(parts) >= 3:
|
||||
month_part = parts[-1].split('.')[0] # Убираем расширение
|
||||
if month_part.isdigit():
|
||||
return month_part
|
||||
return "01" # По умолчанию
|
||||
|
||||
def _parse_single_file(self, file_path: str, month_str: str) -> Dict[str, Any]:
|
||||
"""Парсит один файл мониторинга ТЭР"""
|
||||
try:
|
||||
excel_file = pd.ExcelFile(file_path)
|
||||
available_sheets = excel_file.sheet_names
|
||||
except Exception as e:
|
||||
print(f"❌ Не удалось открыть Excel-файл {file_path}: {e}")
|
||||
return {}
|
||||
|
||||
# Словарь для хранения данных: id -> {'total': [], 'last_day': []}
|
||||
df_svodka_tar = {}
|
||||
|
||||
# Определяем тип файла и обрабатываем соответственно
|
||||
filename = os.path.basename(file_path)
|
||||
|
||||
if filename.startswith('svodka_tar_'):
|
||||
# Обрабатываем файлы svodka_tar_*.xlsx с SNPZ_IDS
|
||||
for name, id in SNPZ_IDS.items():
|
||||
if name not in available_sheets:
|
||||
print(f"🟡 Лист '{name}' отсутствует в файле {file_path}")
|
||||
continue
|
||||
|
||||
# Парсим оба типа строк
|
||||
result = self._parse_monitoring_tar_single(file_path, name, month_str)
|
||||
|
||||
# Инициализируем структуру для id
|
||||
if id not in df_svodka_tar:
|
||||
df_svodka_tar[id] = {'total': [], 'last_day': []}
|
||||
|
||||
if isinstance(result['total'], pd.DataFrame) and not result['total'].empty:
|
||||
df_svodka_tar[id]['total'].append(result['total'])
|
||||
|
||||
if isinstance(result['last_day'], pd.DataFrame) and not result['last_day'].empty:
|
||||
df_svodka_tar[id]['last_day'].append(result['last_day'])
|
||||
|
||||
elif filename.startswith('monitoring_'):
|
||||
# Обрабатываем файлы monitoring_*.xlsm с альтернативными листами
|
||||
monitoring_sheets = {
|
||||
'Мониторинг потребления': 'SNPZ.MONITORING',
|
||||
'Исходные данные': 'SNPZ.SOURCE_DATA'
|
||||
}
|
||||
|
||||
for sheet_name, id in monitoring_sheets.items():
|
||||
if sheet_name not in available_sheets:
|
||||
print(f"🟡 Лист '{sheet_name}' отсутствует в файле {file_path}")
|
||||
continue
|
||||
|
||||
# Парсим оба типа строк
|
||||
result = self._parse_monitoring_tar_single(file_path, sheet_name, month_str)
|
||||
|
||||
# Инициализируем структуру для id
|
||||
if id not in df_svodka_tar:
|
||||
df_svodka_tar[id] = {'total': [], 'last_day': []}
|
||||
|
||||
if isinstance(result['total'], pd.DataFrame) and not result['total'].empty:
|
||||
df_svodka_tar[id]['total'].append(result['total'])
|
||||
|
||||
if isinstance(result['last_day'], pd.DataFrame) and not result['last_day'].empty:
|
||||
df_svodka_tar[id]['last_day'].append(result['last_day'])
|
||||
|
||||
# Агрегация: объединяем списки в DataFrame
|
||||
for id, data in df_svodka_tar.items():
|
||||
if data['total']:
|
||||
df_svodka_tar[id]['total'] = pd.concat(data['total'], ignore_index=True)
|
||||
else:
|
||||
df_svodka_tar[id]['total'] = pd.DataFrame()
|
||||
|
||||
if data['last_day']:
|
||||
df_svodka_tar[id]['last_day'] = pd.concat(data['last_day'], ignore_index=True)
|
||||
else:
|
||||
df_svodka_tar[id]['last_day'] = pd.DataFrame()
|
||||
|
||||
print(f"✅ Агрегировано: {len(df_svodka_tar[id]['total'])} 'total' и "
|
||||
f"{len(df_svodka_tar[id]['last_day'])} 'last_day' записей для id='{id}'")
|
||||
|
||||
return df_svodka_tar
|
||||
|
||||
def _parse_monitoring_tar_single(self, file: str, sheet: str, month_str: str) -> Dict[str, Any]:
|
||||
"""Парсит один файл и лист"""
|
||||
try:
|
||||
# Проверяем наличие листа
|
||||
if sheet not in pd.ExcelFile(file).sheet_names:
|
||||
print(f"🟡 Лист '{sheet}' не найден в файле {file}")
|
||||
return {'total': None, 'last_day': None}
|
||||
|
||||
# Определяем номер заголовка в зависимости от типа файла
|
||||
filename = os.path.basename(file)
|
||||
if filename.startswith('svodka_tar_'):
|
||||
# Для файлов svodka_tar_*.xlsx ищем заголовок по значению "1"
|
||||
header_num = find_header_row(file, sheet, search_value="1")
|
||||
if header_num is None:
|
||||
print(f"❌ Не найдена строка с заголовком '1' в файле {file}, лист '{sheet}'")
|
||||
return {'total': None, 'last_day': None}
|
||||
elif filename.startswith('monitoring_'):
|
||||
# Для файлов monitoring_*.xlsm заголовок находится в строке 5
|
||||
header_num = 5
|
||||
else:
|
||||
print(f"❌ Неизвестный тип файла: {filename}")
|
||||
return {'total': None, 'last_day': None}
|
||||
|
||||
print(f"🔍 DEBUG: Используем заголовок в строке {header_num} для листа '{sheet}'")
|
||||
|
||||
# Читаем с двумя уровнями заголовков
|
||||
df = pd.read_excel(
|
||||
file,
|
||||
sheet_name=sheet,
|
||||
header=header_num,
|
||||
index_col=None
|
||||
)
|
||||
|
||||
# Убираем мультииндекс: оставляем первый уровень
|
||||
df.columns = df.columns.get_level_values(0)
|
||||
|
||||
# Удаляем строки, где все значения — NaN
|
||||
df = df.dropna(how='all').reset_index(drop=True)
|
||||
if df.empty:
|
||||
print(f"🟡 Нет данных после очистки в файле {file}, лист '{sheet}'")
|
||||
return {'total': None, 'last_day': None}
|
||||
|
||||
# === 1. Обработка строки "Всего" ===
|
||||
first_col = df.columns[0]
|
||||
mask_total = df[first_col].astype(str).str.strip() == "Всего"
|
||||
df_total = df[mask_total].copy()
|
||||
|
||||
if not df_total.empty:
|
||||
# Заменяем "Всего" на номер месяца в первой колонке
|
||||
df_total.loc[:, first_col] = df_total[first_col].astype(str).str.replace("Всего", month_str, regex=False)
|
||||
df_total = df_total.reset_index(drop=True)
|
||||
else:
|
||||
df_total = pd.DataFrame()
|
||||
|
||||
# === 2. Обработка последней строки (не пустая) ===
|
||||
# Берём последнюю строку из исходного df (не включая "Всего", если она внизу)
|
||||
# Исключим строку "Всего" из "последней строки", если она есть
|
||||
df_no_total = df[~mask_total].dropna(how='all')
|
||||
if not df_no_total.empty:
|
||||
df_last_day = df_no_total.tail(1).copy()
|
||||
df_last_day = df_last_day.reset_index(drop=True)
|
||||
else:
|
||||
df_last_day = pd.DataFrame()
|
||||
|
||||
return {'total': df_total, 'last_day': df_last_day}
|
||||
|
||||
except Exception as e:
|
||||
print(f"❌ Ошибка при обработке файла {file}, лист '{sheet}': {e}")
|
||||
return {'total': None, 'last_day': None}
|
||||
|
||||
def _get_tar_data_wrapper(self, params: Dict[str, Any] = None) -> str:
|
||||
"""Обертка для получения данных мониторинга ТЭР с фильтрацией по режиму"""
|
||||
print(f"🔍 DEBUG: _get_tar_data_wrapper вызван с параметрами: {params}")
|
||||
|
||||
# Получаем режим из параметров
|
||||
mode = params.get('mode', 'total') if params else 'total'
|
||||
|
||||
# Фильтруем данные по режиму
|
||||
filtered_data = {}
|
||||
if hasattr(self, 'df') and self.df is not None and not self.df.empty:
|
||||
# Данные из MinIO
|
||||
for _, row in self.df.iterrows():
|
||||
id = row['id']
|
||||
data = row['data']
|
||||
if isinstance(data, dict) and mode in data:
|
||||
filtered_data[id] = data[mode]
|
||||
else:
|
||||
filtered_data[id] = pd.DataFrame()
|
||||
elif hasattr(self, 'data_dict') and self.data_dict:
|
||||
# Локальные данные
|
||||
for id, data in self.data_dict.items():
|
||||
if isinstance(data, dict) and mode in data:
|
||||
filtered_data[id] = data[mode]
|
||||
else:
|
||||
filtered_data[id] = pd.DataFrame()
|
||||
|
||||
# Конвертируем в JSON
|
||||
try:
|
||||
result_json = data_to_json(filtered_data)
|
||||
return result_json
|
||||
except Exception as e:
|
||||
print(f"❌ Ошибка при конвертации данных в JSON: {e}")
|
||||
return "{}"
|
||||
|
||||
def _get_tar_full_data_wrapper(self, params: Dict[str, Any] = None) -> str:
|
||||
"""Обертка для получения всех данных мониторинга ТЭР"""
|
||||
print(f"🔍 DEBUG: _get_tar_full_data_wrapper вызван с параметрами: {params}")
|
||||
|
||||
# Получаем все данные
|
||||
full_data = {}
|
||||
if hasattr(self, 'df') and self.df is not None and not self.df.empty:
|
||||
# Данные из MinIO
|
||||
for _, row in self.df.iterrows():
|
||||
id = row['id']
|
||||
data = row['data']
|
||||
full_data[id] = data
|
||||
elif hasattr(self, 'data_dict') and self.data_dict:
|
||||
# Локальные данные
|
||||
full_data = self.data_dict
|
||||
|
||||
# Конвертируем в JSON
|
||||
try:
|
||||
result_json = data_to_json(full_data)
|
||||
return result_json
|
||||
except Exception as e:
|
||||
print(f"❌ Ошибка при конвертации данных в JSON: {e}")
|
||||
return "{}"
|
||||
@@ -6,7 +6,7 @@ from fastapi import FastAPI, File, UploadFile, HTTPException, status
|
||||
from fastapi.responses import JSONResponse
|
||||
|
||||
from adapters.storage import MinIOStorageAdapter
|
||||
from adapters.parsers import SvodkaPMParser, SvodkaCAParser, MonitoringFuelParser, SvodkaRepairCAParser, StatusesRepairCAParser
|
||||
from adapters.parsers import SvodkaPMParser, SvodkaCAParser, MonitoringFuelParser, MonitoringTarParser, SvodkaRepairCAParser, StatusesRepairCAParser
|
||||
|
||||
from core.models import UploadRequest, DataRequest
|
||||
from core.services import ReportService, PARSERS
|
||||
@@ -20,6 +20,7 @@ from app.schemas import (
|
||||
)
|
||||
from app.schemas.svodka_repair_ca import SvodkaRepairCARequest
|
||||
from app.schemas.statuses_repair_ca import StatusesRepairCARequest
|
||||
from app.schemas.monitoring_tar import MonitoringTarRequest, MonitoringTarFullRequest
|
||||
|
||||
|
||||
# Парсеры
|
||||
@@ -27,6 +28,7 @@ PARSERS.update({
|
||||
'svodka_pm': SvodkaPMParser,
|
||||
'svodka_ca': SvodkaCAParser,
|
||||
'monitoring_fuel': MonitoringFuelParser,
|
||||
'monitoring_tar': MonitoringTarParser,
|
||||
'svodka_repair_ca': SvodkaRepairCAParser,
|
||||
'statuses_repair_ca': StatusesRepairCAParser,
|
||||
# 'svodka_plan_sarnpz': SvodkaPlanSarnpzParser,
|
||||
@@ -1163,5 +1165,149 @@ async def get_monitoring_fuel_month_by_code(
|
||||
raise HTTPException(status_code=500, detail=f"Внутренняя ошибка сервера: {str(e)}")
|
||||
|
||||
|
||||
# ====== MONITORING TAR ENDPOINTS ======
|
||||
|
||||
@app.post("/monitoring_tar/upload", tags=[MonitoringTarParser.name],
|
||||
summary="Загрузка отчета мониторинга ТЭР")
|
||||
async def upload_monitoring_tar(
|
||||
file: UploadFile = File(...)
|
||||
):
|
||||
"""Загрузка и обработка отчета мониторинга ТЭР (Топливно-энергетических ресурсов)
|
||||
|
||||
### Поддерживаемые форматы:
|
||||
- **ZIP архивы** с файлами мониторинга ТЭР
|
||||
|
||||
### Структура данных:
|
||||
- Обрабатывает ZIP архивы с файлами по месяцам (svodka_tar_SNPZ_01.xlsx - svodka_tar_SNPZ_12.xlsx)
|
||||
- Извлекает данные по установкам (SNPZ_IDS)
|
||||
- Возвращает два типа данных: 'total' (строки "Всего") и 'last_day' (последние строки)
|
||||
"""
|
||||
report_service = get_report_service()
|
||||
|
||||
try:
|
||||
# Проверяем тип файла - только ZIP архивы
|
||||
if not file.filename.endswith('.zip'):
|
||||
raise HTTPException(
|
||||
status_code=400,
|
||||
detail="Неподдерживаемый тип файла. Ожидается только ZIP архив (.zip)"
|
||||
)
|
||||
|
||||
# Читаем содержимое файла
|
||||
file_content = await file.read()
|
||||
|
||||
# Создаем запрос на загрузку
|
||||
upload_request = UploadRequest(
|
||||
report_type='monitoring_tar',
|
||||
file_content=file_content,
|
||||
file_name=file.filename
|
||||
)
|
||||
|
||||
# Загружаем отчет
|
||||
result = report_service.upload_report(upload_request)
|
||||
|
||||
if result.success:
|
||||
return UploadResponse(
|
||||
success=True,
|
||||
message="Отчет успешно загружен и обработан",
|
||||
report_id=result.object_id,
|
||||
filename=file.filename
|
||||
).model_dump()
|
||||
else:
|
||||
return UploadErrorResponse(
|
||||
success=False,
|
||||
message=result.message,
|
||||
error_code="ERR_UPLOAD",
|
||||
details=None
|
||||
).model_dump()
|
||||
|
||||
except HTTPException:
|
||||
raise
|
||||
except Exception as e:
|
||||
raise HTTPException(status_code=500, detail=f"Внутренняя ошибка сервера: {str(e)}")
|
||||
|
||||
|
||||
@app.post("/monitoring_tar/get_data", tags=[MonitoringTarParser.name],
|
||||
summary="Получение данных из отчета мониторинга ТЭР")
|
||||
async def get_monitoring_tar_data(
|
||||
request_data: MonitoringTarRequest
|
||||
):
|
||||
"""Получение данных из отчета мониторинга ТЭР
|
||||
|
||||
### Структура параметров:
|
||||
- `mode`: **Режим получения данных** (опциональный)
|
||||
- `"total"` - строки "Всего" (агрегированные данные)
|
||||
- `"last_day"` - последние строки данных
|
||||
- Если не указан, возвращаются все данные
|
||||
|
||||
### Пример тела запроса:
|
||||
```json
|
||||
{
|
||||
"mode": "total"
|
||||
}
|
||||
```
|
||||
"""
|
||||
report_service = get_report_service()
|
||||
|
||||
try:
|
||||
# Создаем запрос
|
||||
request_dict = request_data.model_dump()
|
||||
request = DataRequest(
|
||||
report_type='monitoring_tar',
|
||||
get_params=request_dict
|
||||
)
|
||||
|
||||
# Получаем данные
|
||||
result = report_service.get_data(request)
|
||||
|
||||
if result.success:
|
||||
return {
|
||||
"success": True,
|
||||
"data": result.data
|
||||
}
|
||||
else:
|
||||
raise HTTPException(status_code=404, detail=result.message)
|
||||
|
||||
except HTTPException:
|
||||
raise
|
||||
except Exception as e:
|
||||
raise HTTPException(status_code=500, detail=f"Внутренняя ошибка сервера: {str(e)}")
|
||||
|
||||
|
||||
@app.post("/monitoring_tar/get_full_data", tags=[MonitoringTarParser.name],
|
||||
summary="Получение всех данных из отчета мониторинга ТЭР")
|
||||
async def get_monitoring_tar_full_data():
|
||||
"""Получение всех данных из отчета мониторинга ТЭР без фильтрации
|
||||
|
||||
### Возвращает:
|
||||
- Все данные по всем установкам
|
||||
- И данные 'total', и данные 'last_day'
|
||||
- Полная структура данных мониторинга ТЭР
|
||||
"""
|
||||
report_service = get_report_service()
|
||||
|
||||
try:
|
||||
# Создаем запрос без параметров
|
||||
request = DataRequest(
|
||||
report_type='monitoring_tar',
|
||||
get_params={}
|
||||
)
|
||||
|
||||
# Получаем данные
|
||||
result = report_service.get_data(request)
|
||||
|
||||
if result.success:
|
||||
return {
|
||||
"success": True,
|
||||
"data": result.data
|
||||
}
|
||||
else:
|
||||
raise HTTPException(status_code=404, detail=result.message)
|
||||
|
||||
except HTTPException:
|
||||
raise
|
||||
except Exception as e:
|
||||
raise HTTPException(status_code=500, detail=f"Внутренняя ошибка сервера: {str(e)}")
|
||||
|
||||
|
||||
if __name__ == "__main__":
|
||||
uvicorn.run(app, host="0.0.0.0", port=8080)
|
||||
|
||||
33
python_parser/app/schemas/monitoring_tar.py
Normal file
33
python_parser/app/schemas/monitoring_tar.py
Normal file
@@ -0,0 +1,33 @@
|
||||
from pydantic import BaseModel, Field
|
||||
from typing import Optional, Literal
|
||||
from enum import Enum
|
||||
|
||||
class TarMode(str, Enum):
|
||||
"""Режимы получения данных мониторинга ТЭР"""
|
||||
TOTAL = "total"
|
||||
LAST_DAY = "last_day"
|
||||
|
||||
class MonitoringTarRequest(BaseModel):
|
||||
"""Схема запроса для получения данных мониторинга ТЭР"""
|
||||
mode: Optional[TarMode] = Field(
|
||||
None,
|
||||
description="Режим получения данных: 'total' (строки 'Всего') или 'last_day' (последние строки). Если не указан, возвращаются все данные",
|
||||
example="total"
|
||||
)
|
||||
|
||||
class Config:
|
||||
json_schema_extra = {
|
||||
"example": {
|
||||
"mode": "total"
|
||||
}
|
||||
}
|
||||
|
||||
class MonitoringTarFullRequest(BaseModel):
|
||||
"""Схема запроса для получения всех данных мониторинга ТЭР"""
|
||||
# Пустая схема - возвращает все данные без фильтрации
|
||||
pass
|
||||
|
||||
class Config:
|
||||
json_schema_extra = {
|
||||
"example": {}
|
||||
}
|
||||
@@ -142,6 +142,14 @@ class ReportService:
|
||||
elif request.report_type == 'statuses_repair_ca':
|
||||
# Для statuses_repair_ca используем геттер get_repair_statuses
|
||||
getter_name = 'get_repair_statuses'
|
||||
elif request.report_type == 'monitoring_tar':
|
||||
# Для monitoring_tar определяем геттер по параметрам
|
||||
if 'mode' in get_params:
|
||||
# Если есть параметр mode, используем get_tar_data
|
||||
getter_name = 'get_tar_data'
|
||||
else:
|
||||
# Если нет параметра mode, используем get_tar_full_data
|
||||
getter_name = 'get_tar_full_data'
|
||||
elif request.report_type == 'monitoring_fuel':
|
||||
# Для monitoring_fuel определяем геттер из параметра mode
|
||||
getter_name = get_params.pop("mode", None)
|
||||
|
||||
@@ -115,12 +115,13 @@ def main():
|
||||
st.write(f"• {parser}")
|
||||
|
||||
# Основные вкладки - по одной на каждый парсер
|
||||
tab1, tab2, tab3, tab4, tab5 = st.tabs([
|
||||
tab1, tab2, tab3, tab4, tab5, tab6 = st.tabs([
|
||||
"📊 Сводки ПМ",
|
||||
"🏭 Сводки СА",
|
||||
"⛽ Мониторинг топлива",
|
||||
"🔧 Ремонт СА",
|
||||
"📋 Статусы ремонта СА"
|
||||
"📋 Статусы ремонта СА",
|
||||
"⚡ Мониторинг ТЭР"
|
||||
])
|
||||
|
||||
# Вкладка 1: Сводки ПМ - полный функционал
|
||||
@@ -633,6 +634,112 @@ def main():
|
||||
else:
|
||||
st.error(f"❌ Ошибка: {result.get('message', 'Неизвестная ошибка')}")
|
||||
|
||||
# Вкладка 6: Мониторинг ТЭР
|
||||
with tab6:
|
||||
st.header("⚡ Мониторинг ТЭР (Топливно-энергетических ресурсов)")
|
||||
|
||||
# Секция загрузки файлов
|
||||
st.subheader("📤 Загрузка файлов")
|
||||
uploaded_file = st.file_uploader(
|
||||
"Выберите ZIP архив с файлами мониторинга ТЭР",
|
||||
type=['zip'],
|
||||
key="monitoring_tar_upload"
|
||||
)
|
||||
|
||||
if uploaded_file is not None:
|
||||
if st.button("📤 Загрузить файл", key="monitoring_tar_upload_btn"):
|
||||
with st.spinner("Загружаем файл..."):
|
||||
file_data = uploaded_file.read()
|
||||
result, status_code = upload_file_to_api("/monitoring_tar/upload", file_data, uploaded_file.name)
|
||||
|
||||
if status_code == 200:
|
||||
st.success("✅ Файл успешно загружен!")
|
||||
st.json(result)
|
||||
else:
|
||||
st.error(f"❌ Ошибка загрузки: {result}")
|
||||
|
||||
# Секция получения данных
|
||||
st.subheader("📊 Получение данных")
|
||||
|
||||
# Выбор формата отображения
|
||||
display_format = st.radio(
|
||||
"Формат отображения:",
|
||||
["JSON", "Таблица"],
|
||||
key="monitoring_tar_display_format",
|
||||
horizontal=True
|
||||
)
|
||||
|
||||
# Выбор режима данных
|
||||
mode = st.selectbox(
|
||||
"Выберите режим данных:",
|
||||
["all", "total", "last_day"],
|
||||
help="total - строки 'Всего' (агрегированные данные), last_day - последние строки данных, all - все данные",
|
||||
key="monitoring_tar_mode"
|
||||
)
|
||||
|
||||
if st.button("📊 Получить данные", key="monitoring_tar_get_data_btn"):
|
||||
with st.spinner("Получаем данные..."):
|
||||
# Выбираем эндпоинт в зависимости от режима
|
||||
if mode == "all":
|
||||
# Используем полный эндпоинт
|
||||
result, status_code = make_api_request("/monitoring_tar/get_full_data", {})
|
||||
else:
|
||||
# Используем фильтрованный эндпоинт
|
||||
request_data = {"mode": mode}
|
||||
result, status_code = make_api_request("/monitoring_tar/get_data", request_data)
|
||||
|
||||
if status_code == 200 and result.get("success"):
|
||||
st.success("✅ Данные успешно получены!")
|
||||
|
||||
# Показываем данные
|
||||
data = result.get("data", {}).get("value", {})
|
||||
if data:
|
||||
st.subheader("📋 Результат:")
|
||||
|
||||
# # Отладочная информация
|
||||
# st.write(f"🔍 Тип данных: {type(data)}")
|
||||
# if isinstance(data, str):
|
||||
# st.write(f"🔍 Длина строки: {len(data)}")
|
||||
# st.write(f"🔍 Первые 200 символов: {data[:200]}...")
|
||||
|
||||
# Парсим данные, если они пришли как строка
|
||||
if isinstance(data, str):
|
||||
try:
|
||||
import json
|
||||
data = json.loads(data)
|
||||
st.write("✅ JSON успешно распарсен")
|
||||
except json.JSONDecodeError as e:
|
||||
st.error(f"❌ Ошибка при парсинге JSON данных: {e}")
|
||||
st.write("Сырые данные:", data)
|
||||
return
|
||||
|
||||
if display_format == "JSON":
|
||||
# Отображаем как JSON
|
||||
st.json(data)
|
||||
else:
|
||||
# Отображаем как таблицы
|
||||
if isinstance(data, dict):
|
||||
# Показываем данные по установкам
|
||||
for installation_id, installation_data in data.items():
|
||||
with st.expander(f"🏭 {installation_id}"):
|
||||
if isinstance(installation_data, dict):
|
||||
# Показываем структуру данных
|
||||
for data_type, type_data in installation_data.items():
|
||||
st.write(f"**{data_type}:**")
|
||||
if isinstance(type_data, list) and type_data:
|
||||
df = pd.DataFrame(type_data)
|
||||
st.dataframe(df)
|
||||
else:
|
||||
st.write("Нет данных")
|
||||
else:
|
||||
st.write("Нет данных")
|
||||
else:
|
||||
st.json(data)
|
||||
else:
|
||||
st.info("📋 Нет данных для отображения")
|
||||
else:
|
||||
st.error(f"❌ Ошибка: {result.get('message', 'Неизвестная ошибка')}")
|
||||
|
||||
# Футер
|
||||
st.markdown("---")
|
||||
st.markdown("### 📚 Документация API")
|
||||
@@ -647,6 +754,7 @@ def main():
|
||||
- 📊 Парсинг сводок ПМ (план и факт)
|
||||
- 🏭 Парсинг сводок СА
|
||||
- ⛽ Мониторинг топлива
|
||||
- ⚡ Мониторинг ТЭР (Топливно-энергетические ресурсы)
|
||||
- 🔧 Управление ремонтными работами СА
|
||||
- 📋 Мониторинг статусов ремонта СА
|
||||
|
||||
|
||||
BIN
test_repair_ca.zip
Normal file
BIN
test_repair_ca.zip
Normal file
Binary file not shown.
Reference in New Issue
Block a user