The post Por un puñado de tweets appeared first on S3lab.
]]>Para poder acceder al streaming de Twitter, el primer paso es obtener las claves para poder llamar a su API desde programación. Es muy sencillo:
Para poder gestionar el streaming de tweets, lo mejor es utilizar una librería. En este caso, vamos a utilizar Tweepy. Su instalación es muy sencilla:
pip install tweetpy
Una vez instalada, el siguiente código nos dará lo que necesitamos para conectarnos a Twitter:
# Importamos los metodos necesarios de tweepy from tweepy.streaming import StreamListener from tweepy import OAuthHandler import tweepy import csv #Variables that contains the user credentials to access Twitter API access_token = "" access_token_secret = "" consumer_key = "" consumer_secret = "" if __name__ == '__main__': #This handles Twitter authetification and the connection to Twitter Streaming API auth = OAuthHandler(consumer_key, consumer_secret) auth.set_access_token(access_token, access_token_secret) stream = Stream(auth, l) api = tweepy.API(auth)
Por defecto, únicamente podríamos bajar 200 tweets como máximo, a través del siguiente comando:
new_tweets = api.user_timeline(screen_name = screen_name,count=200)
Desde el punto de vista «arqueológico», esto tiene poco valor. Afortunadamente, hay pequeños scripts que nos ayudan a solventar estos problemas:
#keep grabbing tweets until there are no tweets left to grab while len(new_tweets) > 0: print "getting tweets before %s" % (oldest) #all subsiquent requests use the max_id param to prevent duplicates new_tweets = api.user_timeline(screen_name = screen_name,count=200,max_id=oldest) #save most recent tweets alltweets.extend(new_tweets) #update the id of the oldest tweet less one oldest = alltweets[-1].id - 1 print "...%s tweets downloaded so far" % (len(alltweets))
Y con esto, tenemos recopilados todos los tweets. En la próxima entrega veremos como podemos hacer búsquedas en ellos, y empezar a buscar.
The post Por un puñado de tweets appeared first on S3lab.
]]>