mdbq 1.3.7__tar.gz → 1.3.9__tar.gz

This diff represents the content of publicly available package versions that have been released to one of the supported registries. The information contained in this diff is provided for informational purposes only and reflects changes between package versions as they appear in their respective public registries.
Files changed (45) hide show
  1. {mdbq-1.3.7 → mdbq-1.3.9}/PKG-INFO +1 -1
  2. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/aggregation/aggregation.py +7 -2
  3. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/aggregation/query_data.py +1 -1
  4. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/company/copysh.py +2 -2
  5. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/mysql/mysql.py +2 -2
  6. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq.egg-info/PKG-INFO +1 -1
  7. {mdbq-1.3.7 → mdbq-1.3.9}/setup.py +1 -1
  8. {mdbq-1.3.7 → mdbq-1.3.9}/README.txt +0 -0
  9. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/__init__.py +0 -0
  10. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/__version__.py +0 -0
  11. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/aggregation/__init__.py +0 -0
  12. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/aggregation/df_types.py +0 -0
  13. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/aggregation/mysql_types.py +0 -0
  14. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/aggregation/optimize_data.py +0 -0
  15. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/bdup/__init__.py +0 -0
  16. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/bdup/bdup.py +0 -0
  17. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/clean/__init__.py +0 -0
  18. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/clean/data_clean.py +0 -0
  19. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/company/__init__.py +0 -0
  20. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/config/__init__.py +0 -0
  21. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/config/get_myconf.py +0 -0
  22. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/config/products.py +0 -0
  23. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/config/set_support.py +0 -0
  24. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/config/update_conf.py +0 -0
  25. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/dataframe/__init__.py +0 -0
  26. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/dataframe/converter.py +0 -0
  27. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/log/__init__.py +0 -0
  28. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/log/mylogger.py +0 -0
  29. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/mongo/__init__.py +0 -0
  30. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/mongo/mongo.py +0 -0
  31. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/mysql/__init__.py +0 -0
  32. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/mysql/s_query.py +0 -0
  33. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/mysql/year_month_day.py +0 -0
  34. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/other/__init__.py +0 -0
  35. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/other/porxy.py +0 -0
  36. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/other/pov_city.py +0 -0
  37. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/other/ua_sj.py +0 -0
  38. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/pbix/__init__.py +0 -0
  39. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/pbix/pbix_refresh.py +0 -0
  40. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/pbix/refresh_all.py +0 -0
  41. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq/spider/__init__.py +0 -0
  42. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq.egg-info/SOURCES.txt +0 -0
  43. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq.egg-info/dependency_links.txt +0 -0
  44. {mdbq-1.3.7 → mdbq-1.3.9}/mdbq.egg-info/top_level.txt +0 -0
  45. {mdbq-1.3.7 → mdbq-1.3.9}/setup.cfg +0 -0
@@ -1,6 +1,6 @@
1
1
  Metadata-Version: 2.1
2
2
  Name: mdbq
3
- Version: 1.3.7
3
+ Version: 1.3.9
4
4
  Home-page: https://pypi.org/project/mdbsql
5
5
  Author: xigua,
6
6
  Author-email: 2587125111@qq.com
@@ -549,6 +549,7 @@ class DatabaseUpdate:
549
549
  '数据库名': db_name,
550
550
  '集合名称': collection_name,
551
551
  '数据主体': df,
552
+ '文件名': name,
552
553
  }
553
554
  )
554
555
 
@@ -585,6 +586,7 @@ class DatabaseUpdate:
585
586
  '数据库名': db_name,
586
587
  '集合名称': collection_name,
587
588
  '数据主体': df,
589
+ '文件名': name,
588
590
  }
589
591
  )
590
592
  if is_move:
@@ -596,6 +598,7 @@ class DatabaseUpdate:
596
598
  '数据库名': '聚合数据',
597
599
  '集合名称': '日期表',
598
600
  '数据主体': df,
601
+ '文件名': '日期表文件名',
599
602
  }
600
603
  )
601
604
 
@@ -641,7 +644,7 @@ class DatabaseUpdate:
641
644
  port=port,
642
645
  )
643
646
  for data in self.datas:
644
- df, db_name, collection_name = data['数据主体'], data['数据库名'], data['集合名称']
647
+ df, db_name, collection_name, rt_filename = data['数据主体'], data['数据库名'], data['集合名称'], data['文件名']
645
648
  df_to_json.get_df_types(
646
649
  df=df,
647
650
  db_name=db_name,
@@ -653,7 +656,9 @@ class DatabaseUpdate:
653
656
  db_name=db_name,
654
657
  table_name=collection_name,
655
658
  df_sql=False, # 值为 True 时使用 df.to_sql 函数上传整个表, 不会排重
656
- drop_dup=True # 值为 True 时检查重复数据再插入,反之直接上传
659
+ drop_dup=False, # 值为 True 时检查重复数据再插入,反之直接上传,会比较慢
660
+ filename=rt_filename, # 用来追踪处理进度
661
+ system_name=system_name, # 用来追踪处理进度
657
662
  )
658
663
  df_to_json.as_json_file() # 写入 json 文件, 包含数据的 dtypes 信息
659
664
 
@@ -581,7 +581,7 @@ def data_aggregation(service_databases=[{}], months=1, system_name=None,):
581
581
  system_name=system_name,
582
582
  )
583
583
 
584
- # 这是 optimize_data.py 独立的程序,但不在这里清洗数据, 而是通过修改配置文件的方式触发 optimize_datas.py(有s)程序进行全局清理
584
+ # 这里要注释掉,不然 copysh.py 可能有问题,这里主要修改配置文件,后续触发 home_lx optimize_datas.py(有s)程序进行全局清理
585
585
  # optimize_data.op_data(service_databases=service_databases, days=3650) # 立即启动对聚合数据的清理工作
586
586
 
587
587
 
@@ -306,7 +306,7 @@ def op_data(days: int =3650):
306
306
  '生意参谋2',
307
307
  '生意经2',
308
308
  '属性设置2',
309
- '聚合数据',
309
+ # '聚合数据', # 不在这里清理聚合数据, 还未开始聚合呢
310
310
  ]
311
311
  s.days = days
312
312
  s.optimize_list()
@@ -329,7 +329,7 @@ def main():
329
329
  dp = aggregation.DatabaseUpdate(path=d_path)
330
330
  dp.new_unzip(is_move=True)
331
331
  dp.cleaning(is_move=True) # 公司台式机需要移除自身下载的文件
332
- dp.upload_df(service_databases=[{'company': 'mysql'}])
332
+ dp.upload_df(service_databases=[{'company': 'mysql'}], system_name='company')
333
333
 
334
334
  # 此操作用于修改 .copysh_conf 文件,将 ch_record 改为 false (更新完成)
335
335
  w = update_conf.UpdateConf()
@@ -57,14 +57,14 @@ class MysqlUpload:
57
57
  }
58
58
  self.filename = None
59
59
 
60
- def df_to_mysql(self, df, table_name, db_name='远程数据源', icm_update=[], icm_up=[], df_sql=False, drop_dup=True, drop_duplicates=False, filename=None, count=None, json_path=None, system_name=None):
60
+ def df_to_mysql(self, df, table_name, db_name='远程数据源', icm_update=[], icm_up=[], df_sql=False, drop_dup=False, drop_duplicates=False, filename=None, count=None, json_path=None, system_name=None):
61
61
  """
62
62
  将 df 写入数据库
63
63
  db_name: 数据库名称
64
64
  table_name: 集合/表名称
65
65
  df_sql: 这是一个临时参数, 值为 True 时使用 df.to_sql 函数上传整个表, 不会排重
66
66
  drop_duplicates:值为 True 时(仅限于聚合数据使用),其他情况不要设置此参数
67
- drop_dup: 值为 True 时检查重复数据再插入,反之直接上传
67
+ drop_dup: 值为 True 时检查重复数据再插入,反之直接上传,数据量大时会比较慢
68
68
  filename: 传这个参数是方便定位产生错误的文件
69
69
  icm_update: 增量更新, 在聚合数据中使用,原始文件不要使用,设置此参数时需将 drop_dup 改为 False
70
70
  使用增量更新: 必须确保 icm_update 传进来的列必须是数据表中唯一主键,值不会发生变化,不会重复,否则可能产生错乱覆盖情况
@@ -1,6 +1,6 @@
1
1
  Metadata-Version: 2.1
2
2
  Name: mdbq
3
- Version: 1.3.7
3
+ Version: 1.3.9
4
4
  Home-page: https://pypi.org/project/mdbsql
5
5
  Author: xigua,
6
6
  Author-email: 2587125111@qq.com
@@ -3,7 +3,7 @@
3
3
  from setuptools import setup, find_packages
4
4
 
5
5
  setup(name='mdbq',
6
- version='1.3.7',
6
+ version='1.3.9',
7
7
  author='xigua, ',
8
8
  author_email="2587125111@qq.com",
9
9
  url='https://pypi.org/project/mdbsql',
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes
File without changes