У меня есть несколько наборов данных txt и csv в одном контейнере s3, my_bucket и глубоко изученном экземпляре ubuntu ec2.Я использую ноутбук Jupyter в этом случае.Мне нужно прочитать данные с S3 на Jupyter.
Я искал везде (почти) документацию AWS и их форум вместе с другими блогами.Это лучшее, что я мог сделать.Однако после получения ключей (обоих), перезапускающих экземпляр (и aws тоже), я все равно получаю сообщение об ошибке для aws_key.
Интересно, кто-нибудь побежал к этому, или у вас есть лучшая идея, чтобы получить данные оттуда.Я открыт, пока он не использует http (который требует, чтобы данные были общедоступными).Спасибо.
import pandas as pd
from smart_open import smart_open
import os
aws_key = os.environ['aws_key']
aws_secret = os.environ['aws_secret']
bucket_name = 'my_bucket'
object_key = 'data.csv'
path = 's3://{}:{}@{}/{}'.format(aws_key, aws_secret, bucket_name, object_key)
df = pd.read_csv(smart_open(path))