将单个大型Google Drive存档导入共享的Google Colab项目

我在进行一个班级项目,我们在Google Colab中处理一个大型数据集。需要注意的是,如果运行时断开连接,文件不会被保存。因此,我将数据集下载到了我的个人驱动器中,但现在我很难让Colab项目访问到它。我也不能简单地挂载我的驱动器,因为还有其他人也在参与这个项目。

有什么方法可以在Colab中下载一个已开启链接共享的驱动器文件吗?

能够保存训练好的模型也会很有用,但同样面临共享和保存文件的问题。


回答:

我知道有两种方法。

如果你只想与朋友分享,而不想公开,你可以通过Google Drive分享。每个朋友都需要执行auth.authenticate_user(),然后使用pydrive来加载指定FILE_ID的文件。

如果你可以公开分享,那就更简单了。任何人都可以使用以下命令下载文件:

!gdown --id xxxxxxxxx

其中xxxxxxx是FILE_ID。

Related Posts

在使用k近邻算法时,有没有办法获取被使用的“邻居”?

我想找到一种方法来确定在我的knn算法中实际使用了哪些…

Theano在Google Colab上无法启用GPU支持

我在尝试使用Theano库训练一个模型。由于我的电脑内…

准确性评分似乎有误

这里是代码: from sklearn.metrics…

Keras Functional API: “错误检查输入时:期望input_1具有4个维度,但得到形状为(X, Y)的数组”

我在尝试使用Keras的fit_generator来训…

如何使用sklearn.datasets.make_classification在指定范围内生成合成数据?

我想为分类问题创建合成数据。我使用了sklearn.d…

如何处理预测时不在训练集中的标签

已关闭。 此问题与编程或软件开发无关。目前不接受回答。…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注