1 回答
- 最新
- 投票最多
- 评论最多
0
这个问题有巨大的困难,S3是对象存储,数据库存储通常是卷存储,数据库对单个数据库文件有大量的随机读写,这个在S3里面会造成巨量的对象文件更新(性能比起卷存储相差1-2个数量级,费用会更高昂)。只有大数据Redshift的存算分离场景会用S3作为存储对象,批量导入数据,然后再读取到内存后进行分析。
相关内容
- AWS 官方已更新 3 年前
- AWS 官方已更新 1 年前
- AWS 官方已更新 1 年前
- AWS 官方已更新 1 年前
这个问题有巨大的困难,S3是对象存储,数据库存储通常是卷存储,数据库对单个数据库文件有大量的随机读写,这个在S3里面会造成巨量的对象文件更新(性能比起卷存储相差1-2个数量级,费用会更高昂)。只有大数据Redshift的存算分离场景会用S3作为存储对象,批量导入数据,然后再读取到内存后进行分析。