Konuyu Değerlendir
  • 0 Oy - 0 Ortalama
  • 1
  • 2
  • 3
  • 4
  • 5
Python ile İnternetten Veri Çekmek
#1
Python ile web sitelerden veri çekmek için hangi kütüphaneleri tercih ediyorsunuz ?
Alıntı
#2
Kadir Bey genelde herkesin kullandığı kütüphane urllib kütüphanesidir

*-İstek göndermek için request modülünü kullanırız

*-siteye bağlanmak ve bilgi almak için
urllib.request.urlopen(site adı) nı kullanırız.

*-gelen bilgileri yazdırmak içinde
print(html.read()) ile konsola yazdırırız...
Bul
Alıntı
#3
Request ile beatifulSoup çok yaygin.Merak ettiğim konu: Selenium ile yapabilir miyiz? Baya populer bir araç.Bu ikisi arasindaki farklar nedir? Selenium olmadan da yapabiliriz gibi geliyor.Kolaylik olmasi açisindan mi kullaniyoruz?
Alıntı
#4
Selenium bildiğim kadarıyla biraz daha otonom işlerde kullanılıyor yaptığın işleri otomatik olarak denetlemek gibi yada kullanıcı adı olan sitelere giriş yapmak beğeni yaptırmak gibi biraz daha otonom, Sizin yerinize web sayfasına girerek istediğinizi yapar diyelim

urllib - beatifulSoup bunlar biraz daha işi manüel yapmamıza hedef odaklı diyebiliriz

Aslında birazda ne istediğimizle alakalı, neyi yaptırmak istiyoruz sorusunda gizli, hangisini kullanacağımız
Bunların hepsi kendine göre iyi yanları var biri otonom giriş yaparken biri içerik çekebilir biri html kodlarına ulaşabilir gibi
Bul
Alıntı
#5
Instagrama girsin, bir etiket olsun, bu etiket üzerinde paylaşim yapan kişileri takip etmek istediğimizde selenium daha rahat galiba.Bir işi yaptiracaksak selenium, bir veri alip onun uzerinde analiz gibi islemler yapacaksak, beatifulsoap, request... kullanmak daha mantikli galiba
Alıntı


Foruma Git:


Bu konuyu görüntüleyen kullanıcı(lar): 1 Ziyaretçi

Hakkımızda
    Yapay Zeka Forum , Yapay Zekayı Türkiye'ye tanıtmak ve bu alanda Türkçe kaynak sıkıntısını gidermek ve aynı zamanda Yapay Zekaya ilgi duyan tüm kişileri bir araya getirmek amacıyla kurulmuştur.

Yapay Zeka Forum


yapay zeka

,

yapay sinir ağı

,

yapay sinir ağları

,

derin öğrenme

,

makine öğrenmesi