PostgreSQL
pg+debezium+kafka实时同步
三机patroni+etcd高可用
基于Python实现大批量dataframe格式数据快速存入postgresql
python数据批量插入postgreSQL数据库
pg 插件扩展(extension)开发
psql 连接数据库的方法
pg 函数返回表、数据集、结果集
pg 日志记录 异常处理
pg 作业调度器 pg_timetable
pg 查询对象的权限
正则表达式去除注释
pg 数据库高可用及负载均衡JDBC参数
pg 生成节假日
pg_recvlogical 解析日志
pg 查看锁表
pg upsert写法
pg 查看函数或存储过程的定义
plpgsql 代码块
pg 查看表的膨胀率
pg 获取表大小
pg 非物化视图所有者刷新物化视图
本站点使用 MrDoc 构建
-
+
首页
基于Python实现大批量dataframe格式数据快速存入postgresql
```python # 加载必要的python库 import psycopg2 from io import StringIO from sqlalchemy import create_engine import pandas as pd # 输出表名 output_tablename = '' engine = create_engine('postgres://username:password@ip:port/database') # username为用户名、password为密码、ip为IP地址、database为数据库名称 pd_engine = pd.io.sql.pandasSQL_builder(engine) table = pd.io.sql.SQLTable(output_tablename, pd_engine, frame = df, index= False, if_exists='fail', schema='path_test') # frame表示需要写入mpp库中的dataframe格式的数据 table.create() io_buff = StringIO() df.to_csv(io_buff, sep='\t', index=False, time.time()) io_buff_value = io_buff.getvalue() coon = psycopg2.connect(host='', user='', password='', database='', port='') cur = coon.cursor() cur.copy_from(StringIO(io_buff_value), 'path_test.'+output_tablename) #path_test表示实际的schema coon.commit() cur.close() coon.close() print('写入成功') ```
vleity
2025年5月26日 18:55
转发文档
收藏文档
上一篇
下一篇
手机扫码
复制链接
手机扫一扫转发分享
复制链接
Markdown文件
PDF文档(打印)
分享
链接
类型
密码
更新密码