Cara Mudah Crawl Data Twitter dengan Python dan SNS Scraper

Halo teman-teman! Maaf ya baru bikin konten lagi karena akhir-akhir ini cukup sibuk. Di video kali ini, saya ingin berbagi cara mudah untuk mendapatkan data Twitter dengan menggunakan Python dan SNS Scraper. Banyak yang mengalami masalah seperti “no additional tweet scrolling” pada alat yang saya buat sebelumnya. Namun, saya menemukan cara baru yang lebih cepat dan mudah menggunakan Google Colab.

Panduan Mendapatkan Data Twitter dengan Python dan SNScrape

Pendahuluan

Halo teman-teman! Maaf baru bisa bikin konten lagi. Kali ini, saya akan membagikan cara cepat dan mudah untuk mendapatkan data dari Twitter menggunakan Python dan SNScrape. Mari kita mulai!

Alat dan Bahan

  • Google Colab: Untuk menjalankan kode Python secara online.
  • SNScrape: Library Python untuk scraping data dari media sosial.

Langkah-Langkah

1. Persiapan Google Colab

Buka Google Colab dan buat notebook baru. Link Google Colab akan saya share di deskripsi atau di website saya di helmisatria.com, bagian blog.

2. Instalasi dan Import Library

Untuk memulai, kita perlu menginstal SNScrape dan beberapa library lain yang diperlukan. Tambahkan kode berikut di sel pertama dan jalankan:

!pip install snscrape pandas
import snscrape.modules.twitter as sntwitter
import pandas as pd

3. Menentukan Parameter Scraping

Kita akan menentukan kata kunci dan parameter lainnya. Berikut contoh kode untuk mendapatkan 10 tweet tentang “presiden”:

query = "(presiden) until:2022-01-31 since:2022-01-01 lang:id"
tweets = []
limit = 10

for tweet in sntwitter.TwitterSearchScraper(query).get_items():
    if len(tweets) == limit:
        break
    tweets.append([tweet.date, tweet.id, tweet.content, tweet.user.username, tweet.likeCount, tweet.retweetCount, tweet.replyCount, tweet.lang])

df = pd.DataFrame(tweets, columns=['Date', 'Tweet Id', 'Content', 'Username', 'Likes', 'Retweets', 'Replies', 'Language'])
df.to_csv('tweets.csv', index=False)

4. Menjalankan Scraping

Jalankan sel di atas untuk mulai mengumpulkan data. Kode ini akan menyimpan data ke file tweets.csv di Google Drive Anda.

5. Mengolah Data

Untuk membersihkan dan mengolah data, tambahkan kode berikut:

# Baca file CSV
df = pd.read_csv('tweets.csv')

# Filter kolom yang diperlukan
df_filtered = df[['Date', 'Content', 'Username', 'Likes', 'Retweets', 'Replies']]

# Simpan ke file CSV baru
df_filtered.to_csv('filtered_tweets.csv', index=False)

6. Membuka Hasil di Google Sheets

Untuk membuka hasilnya di Google Sheets:

  1. Download file CSV hasil scraping.
  2. Buka Google Sheets.
  3. Pilih File > Open > Upload.
  4. Unggah file CSV yang telah diunduh.

7. Penyesuaian Parameter

Anda dapat menyesuaikan parameter pencarian sesuai kebutuhan:

  • Kata kunci: Ganti query dengan kata kunci yang diinginkan.
  • Tanggal: Ubah since dan until untuk rentang waktu yang berbeda.
  • Bahasa: Sesuaikan lang untuk bahasa yang berbeda.

Contoh Penggunaan Advanced Search di Twitter

Untuk menemukan kata kunci yang tepat, Anda bisa menggunakan fitur Advanced Search di Twitter:

  1. Buka Twitter dan pilih Explore.
  2. Ketik kata kunci dan buka Advanced Search.
  3. Sesuaikan parameter seperti bahasa, akun tertentu, dan jumlah minimal likes atau retweets.
  4. Salin query hasil pencarian dan gunakan di kode Python Anda.

Penutup

Dengan mengikuti langkah-langkah di atas, Anda bisa mendapatkan data Twitter dengan mudah dan cepat. Semoga panduan ini membantu teman-teman yang sedang mengerjakan skripsi atau proyek lainnya. Selamat mencoba dan semoga sukses!

Jika ada pertanyaan, silakan tinggalkan komentar atau kunjungi website saya di helmisatria.com.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *