All Content tagged with Amazon Relational Database Service

Amazon Relational Database Service (Amazon RDS) makes it easy to set up, operate, and scale a relational database in the cloud.

内容语言: 中文 (简体)

Select up to 5 tags to filter
排序方式 最新
485 条结果
1
回答
0
点赞数
112
检视次数
profile picture
专家
已提问 10 个月前
【以下的问题经过翻译处理】 RDS SQL Server支持OLE自动化吗?如果不支持,有什么替代方案吗?
1
回答
0
点赞数
117
检视次数
profile picture
专家
已提问 10 个月前
【以下的问题经过翻译处理】 我正在使用Data Pipeline将来自RDS的数据复制到Redshift,对于每个表,都有一个单独的Pipeline进行复制。 是否可能将这些Pipelines合并为一个单独的Pipeline,用于多个表?如果可以,是否有一个示例JSON配置,可以实现这一点?
1
回答
0
点赞数
115
检视次数
profile picture
专家
已提问 10 个月前
【以下的问题经过翻译处理】 你好,我已创建了一个jdbc连接,用于连接到另一台托管在aws ec2实例上的mysql数据库。在创建连接时,我没有找到测试连接选项,我正在按照一个youtube视频来操作,其中他显示了测试连接的选项,但是在我的控制台中没有这样的选项。你能帮我解决这个问题吗?谢谢。
1
回答
0
点赞数
112
检视次数
profile picture
专家
已提问 10 个月前
【以下的问题经过翻译处理】 我有一个由我的Glue Job生成的pyspark脚本,旨在从S3存储桶中的CSV文件中读取数据并将其写入我的SQL RDS表中。 在我的CSV文件中,我有多行字符串。 如果解析后字符串中引号被正常解析,则作业通过,但在我的情况下,多行字符串中的引号未被正确解析,因此作业无法将数据插入我的表中; 我尝试过: ...
1
回答
0
点赞数
119
检视次数
profile picture
专家
已提问 10 个月前
【以下的问题经过翻译处理】 我有一个使用大写字符的表名和列名的RDS PostgreSQL数据库。我创建了一个Glue爬虫,通过JDBC连接到数据库,并在转化为数据目录时将大写字符转换为小写字符。当我运行Glue作业进行查询时,出现以下错误: An error occurred while calling o94.getDynamicFrame. ERROR: column "id" does...
1
回答
0
点赞数
116
检视次数
profile picture
专家
已提问 10 个月前
【以下的问题经过翻译处理】 IHAC 使用一组 RDS(250 个数据库,每个客户一个)实例用于 OLTP,另一组 RDS 使用转换后的数据进行分析。 他们所有的客户数据都必须进行隔离(目前大约有 250 个客户,但还在增加)。 他们正尝试使用 DMS 进行迁移,但遇到了问题。 RDS 到 RDS 对他们来说真的很慢,CDC 也不好用,所以他们改用了 RDS 到 S3,然后使用 Glue...
1
回答
0
点赞数
117
检视次数
profile picture
专家
已提问 10 个月前
【以下的问题经过翻译处理】 \*\*将数据从 RDS MySQL 传输到 S3 存储桶 \*\* 我设置了一个AWS Data Pipeline以将数据从 RDS Mysql 传输到 S3 Bucket,在此之前我使用用户名和密码设置了 RDS mysql 数据库。 (启用 IAM 身份验证) 似乎由数据管道创建的 EC2 无法访问数据库。 错误消息:(用户...
1
回答
0
点赞数
80
检视次数
profile picture
专家
已提问 10 个月前
【以下的问题经过翻译处理】 大家好, 我有一个 AWS Glue作业,从 s3 中读取 CSV 文件,并将数据注入到 MySQL RDS Aurora DB 的表中。 问题是 CSV 文件中所有带有转义字符的行都被Glue作业完全忽略,并且没有插入到表格当中。 例如,在我的 CSV 文件中,如下字符串的行被 glue 作业忽略: > > "Return "1" if the number...
1
回答
0
点赞数
57
检视次数
profile picture
专家
已提问 10 个月前
【以下的问题经过翻译处理】 我有一个AWS Glue作业,可以从S3读取20个CSV文件并将它们注入到MySQL RDS中。 这20个文件都在S3上,但它们不会在相同的时间到达。我应该如何配置Glue作业/事件规则,使得只有当所有20个文件都被上传到S3上时,自动触发Glue作业?谢谢。
1
回答
0
点赞数
34
检视次数
profile picture
专家
已提问 10 个月前
【以下的问题经过翻译处理】 我有一个AWS Glue作业,可以从S3中读取数据并将其注入RDS MySQL中。 我正在尝试在作业结束时(从pySpark...
1
回答
0
点赞数
48
检视次数
profile picture
专家
已提问 10 个月前
【以下的问题经过翻译处理】 团队您好, 我希望在glue job结束时(在gluejob内部),调用我的存储过程, 能否在不使用py4j的情况下,从pyspark glue Job 连接 mySQL...
1
回答
0
点赞数
35
检视次数
profile picture
专家
已提问 10 个月前