Pythonでのデータ収集環境について、自分の解釈が正しいかどうか
Pythonでwebスクレイピングがしたいと思い、いろいろと調べていました。
自分の状態としては、Pythonについては一通り勉強が終わっている(はずの)状態です。
①AnacondaはPythonの機能を拡張するために用意されているもので、インストールすることで、webからデータを集めるためにコンパイルされたコードがあらかじめ用意されている。
②Anacondaをインストールしておくと、必要に応じてPythonのIDEからimportで呼び出すことができる。
(IDEにはPyCharmを用いる予定ですが、何か別途設定は必要ですか?という趣旨)
③スクレイピングをする際に、仮想環境を用いると書いているところがあったが、個人的に用いるなら特に必要はない?
以上3つが質問です。
よろしくお願いいたします。