Какой самый чистый способ извлечь URL из строки, используя Python? - PullRequest
23 голосов
/ 06 февраля 2009

Хотя я знаю, что мог бы использовать какое-то огромное регулярное выражение, такое как размещенное здесь Мне интересно, есть ли какой-то дурацкий способ сделать это либо со стандартным модулем, либо, возможно, с какой-нибудь сторонней дополнение?

Простой вопрос, но ничего не выпрыгнуло в Google (или Stackoverflow).

Будем рады увидеть, как вы это сделаете!

Ответы [ 10 ]

13 голосов
/ 17 февраля 2015

Я знаю, что это именно то, чего вы не хотите, но вот файл с огромным регулярным выражением:

#!/usr/bin/python
# -*- coding: utf-8 -*-
"""
the web url matching regex used by markdown
http://daringfireball.net/2010/07/improved_regex_for_matching_urls
https://gist.github.com/gruber/8891611
"""
URL_REGEX = r"""(?i)\b((?:https?:(?:/{1,3}|[a-z0-9%])|[a-z0-9.\-]+[.](?:com|net|org|edu|gov|mil|aero|asia|biz|cat|coop|info|int|jobs|mobi|museum|name|post|pro|tel|travel|xxx|ac|ad|ae|af|ag|ai|al|am|an|ao|aq|ar|as|at|au|aw|ax|az|ba|bb|bd|be|bf|bg|bh|bi|bj|bm|bn|bo|br|bs|bt|bv|bw|by|bz|ca|cc|cd|cf|cg|ch|ci|ck|cl|cm|cn|co|cr|cs|cu|cv|cx|cy|cz|dd|de|dj|dk|dm|do|dz|ec|ee|eg|eh|er|es|et|eu|fi|fj|fk|fm|fo|fr|ga|gb|gd|ge|gf|gg|gh|gi|gl|gm|gn|gp|gq|gr|gs|gt|gu|gw|gy|hk|hm|hn|hr|ht|hu|id|ie|il|im|in|io|iq|ir|is|it|je|jm|jo|jp|ke|kg|kh|ki|km|kn|kp|kr|kw|ky|kz|la|lb|lc|li|lk|lr|ls|lt|lu|lv|ly|ma|mc|md|me|mg|mh|mk|ml|mm|mn|mo|mp|mq|mr|ms|mt|mu|mv|mw|mx|my|mz|na|nc|ne|nf|ng|ni|nl|no|np|nr|nu|nz|om|pa|pe|pf|pg|ph|pk|pl|pm|pn|pr|ps|pt|pw|py|qa|re|ro|rs|ru|rw|sa|sb|sc|sd|se|sg|sh|si|sj|Ja|sk|sl|sm|sn|so|sr|ss|st|su|sv|sx|sy|sz|tc|td|tf|tg|th|tj|tk|tl|tm|tn|to|tp|tr|tt|tv|tw|tz|ua|ug|uk|us|uy|uz|va|vc|ve|vg|vi|vn|vu|wf|ws|ye|yt|yu|za|zm|zw)/)(?:[^\s()<>{}\[\]]+|\([^\s()]*?\([^\s()]+\)[^\s()]*?\)|\([^\s]+?\))+(?:\([^\s()]*?\([^\s()]+\)[^\s()]*?\)|\([^\s]+?\)|[^\s`!()\[\]{};:\'\".,<>?«»“”‘’])|(?:(?<!@)[a-z0-9]+(?:[.\-][a-z0-9]+)*[.](?:com|net|org|edu|gov|mil|aero|asia|biz|cat|coop|info|int|jobs|mobi|museum|name|post|pro|tel|travel|xxx|ac|ad|ae|af|ag|ai|al|am|an|ao|aq|ar|as|at|au|aw|ax|az|ba|bb|bd|be|bf|bg|bh|bi|bj|bm|bn|bo|br|bs|bt|bv|bw|by|bz|ca|cc|cd|cf|cg|ch|ci|ck|cl|cm|cn|co|cr|cs|cu|cv|cx|cy|cz|dd|de|dj|dk|dm|do|dz|ec|ee|eg|eh|er|es|et|eu|fi|fj|fk|fm|fo|fr|ga|gb|gd|ge|gf|gg|gh|gi|gl|gm|gn|gp|gq|gr|gs|gt|gu|gw|gy|hk|hm|hn|hr|ht|hu|id|ie|il|im|in|io|iq|ir|is|it|je|jm|jo|jp|ke|kg|kh|ki|km|kn|kp|kr|kw|ky|kz|la|lb|lc|li|lk|lr|ls|lt|lu|lv|ly|ma|mc|md|me|mg|mh|mk|ml|mm|mn|mo|mp|mq|mr|ms|mt|mu|mv|mw|mx|my|mz|na|nc|ne|nf|ng|ni|nl|no|np|nr|nu|nz|om|pa|pe|pf|pg|ph|pk|pl|pm|pn|pr|ps|pt|pw|py|qa|re|ro|rs|ru|rw|sa|sb|sc|sd|se|sg|sh|si|sj|Ja|sk|sl|sm|sn|so|sr|ss|st|su|sv|sx|sy|sz|tc|td|tf|tg|th|tj|tk|tl|tm|tn|to|tp|tr|tt|tv|tw|tz|ua|ug|uk|us|uy|uz|va|vc|ve|vg|vi|vn|vu|wf|ws|ye|yt|yu|za|zm|zw)\b/?(?!@)))"""

Я называю этот файл urlmarker.py, и когда мне это нужно, я просто импортирую его, например.

import urlmarker
import re
re.findall(urlmarker.URL_REGEX,'some text news.yahoo.com more text')

ср. http://daringfireball.net/2010/07/improved_regex_for_matching_urls

Кроме того, вот что Django (1.6) использует для проверки URLField s:

regex = re.compile(
    r'^(?:http|ftp)s?://'  # http:// or https://
    r'(?:(?:[A-Z0-9](?:[A-Z0-9-]{0,61}[A-Z0-9])?\.)+(?:[A-Z]{2,6}\.?|[A-Z0-9-]{2,}\.?)|'  # domain...
    r'localhost|'  # localhost...
    r'\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3}|'  # ...or ipv4
    r'\[?[A-F0-9]*:[A-F0-9:]+\]?)'  # ...or ipv6
    r'(?::\d+)?'  # optional port
    r'(?:/?|[/?]\S+)$', re.IGNORECASE)

ср. https://github.com/django/django/blob/1.6/django/core/validators.py#L43-50

В Django 1.9 эта логика разделена на несколько классов

12 голосов
/ 23 мая 2015

Существует отличное сравнение 13 различных подходов регулярных выражений

... которую можно найти на этой странице: В поисках идеального регулярного выражения для проверки правильности URL .

Регулярное выражение Диего Перини, прошедшее все тесты, очень длинно, но доступно в его сущности здесь .
Обратите внимание, что вам придется преобразовать его версию PHP в регулярные выражения Python (есть небольшие различия).

Я закончил тем, что использовал версию Imme Emosol , которая проходит подавляющее большинство тестов и является частью размера Диего Перини.

Вот Python-совместимая версия регулярного выражения Imme Emosol:

r'^(?:(?:https?|ftp)://)(?:\S+(?::\S*)?@)?(?:(?:[1-9]\d?|1\d\d|2[01]\d|22[0-3])(?:\.(?:1?\d{1,2}|2[0-4]\d|25[0-5])){2}(?:\.(?:[1-9]\d?|1\d\d|2[0-4]\d|25[0-4]))|(?:(?:[a-z\u00a1-\uffff0-9]+-?)*[a-z\u00a1-\uffff0-9]+)(?:\.(?:[a-z\u00a1-\uffff0-9]+-?)*[a-z\u00a1-\uffff0-9]+)*(?:\.(?:[a-z\u00a1-\uffff]{2,})))(?::\d{2,5})?(?:/[^\s]*)?$'
12 голосов
/ 06 декабря 2009

Посмотрите на подход Джанго здесь: django.utils.urlize(). Регулярные выражения слишком ограничены для работы, и вы должны использовать эвристику, чтобы получить наиболее подходящие результаты.

8 голосов
/ 06 февраля 2009

Используйте регулярное выражение.

Ответ на комментарий от ОП: Я знаю, что это бесполезно. Я говорю вам правильный способ решения проблемы, поскольку вы заявили, что это использование регулярного выражения.

6 голосов
/ 27 декабря 2012

Вы можете использовать эту библиотеку, которую я написал:

https://github.com/imranghory/urlextractor

Он чрезвычайно хакерский, но он не полагается на "http://", как и многие другие методы, скорее он использует список TLD Mozilla (через библиотеку tldextract) для поиска TLD (то есть" .co.uk "," .com "и т. д.) в тексте, а затем пытается создать URL вокруг TLD.

Это не цель быть RFC-совместимой, а скорее точная информация о том, как URL используются на практике в реальном мире. Так, например, он отклонит технически действительный домен «com» ​​(вы можете фактически использовать домен верхнего уровня в качестве домена; хотя на практике это редко) и удалит конечные точки или запятые из URL.

4 голосов
/ 06 февраля 2009

Вы можете использовать BeautifulSoup .

def extractlinks(html):
    soup = BeautifulSoup(html)
    anchors = soup.findAll('a')
    links = []
    for a in anchors:
        links.append(a['href'])
    return links

Обратите внимание, что решение с регулярными выражениями быстрее, хотя и не так точно.

4 голосов
/ 06 февраля 2009

если вы знаете, что после строки в строке есть URL, вы можете сделать что-то вроде этого:

s - строка, связывающая URL

>>> t = s[s.find("http://"):]
>>> t = t[:t.find(" ")]

В противном случае вам нужно проверить, возвращает ли команда -1 или нет.

3 голосов
/ 16 ноября 2016

Я опаздываю на вечеринку, но вот решение, которое мне предложил кто-то из #python на freenode. Это позволяет избежать проблем с регулярными выражениями.

from urlparse import urlparse

def extract_urls(text):
    """Return a list of urls from a text string."""
    out = []
    for word in text.split(' '):
        thing = urlparse(word.strip())
        if thing.scheme:
            out.append(word)
    return out
0 голосов
/ 06 июля 2017

Есть еще один способ, как легко извлечь URL из текста. Вы можете использовать urlextract, чтобы сделать это за вас, просто установите его через pip:

pip install urlextract

и затем вы можете использовать его так:

from urlextract import URLExtract

extractor = URLExtract()
urls = extractor.find_urls("Let's have URL stackoverflow.com as an example.")
print(urls) # prints: ['stackoverflow.com']

Вы можете найти больше информации на моей странице github: https://github.com/lipoja/URLExtract

ПРИМЕЧАНИЕ. Он загружает список доменов верхнего уровня с iana.org, чтобы держать вас в курсе. Но если программа не имеет доступа к Интернету, то это не для вас.

Этот подход такой же, как и в urlextractor (упомянутом выше), но мой код недавно обновлен и поддерживается, и я открыт для любых предложений (новых функций).

0 голосов
/ 02 мая 2017
import re
text = '<p>Please click <a href="http://www.dr-chuck.com">here</a></p>'
aa=re.findall('href="(.+)"',text)
print(aa)
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...