[naver] improve extraction(closes #8096)
This commit is contained in:
		
							parent
							
								
									4f427c4be8
								
							
						
					
					
						commit
						b02b960c6b
					
				| @ -4,12 +4,10 @@ from __future__ import unicode_literals | |||||||
| import re | import re | ||||||
| 
 | 
 | ||||||
| from .common import InfoExtractor | from .common import InfoExtractor | ||||||
| from ..compat import ( |  | ||||||
|     compat_urllib_parse_urlencode, |  | ||||||
|     compat_urlparse, |  | ||||||
| ) |  | ||||||
| from ..utils import ( | from ..utils import ( | ||||||
|     ExtractorError, |     ExtractorError, | ||||||
|  |     int_or_none, | ||||||
|  |     update_url_query, | ||||||
| ) | ) | ||||||
| 
 | 
 | ||||||
| 
 | 
 | ||||||
| @ -23,7 +21,6 @@ class NaverIE(InfoExtractor): | |||||||
|             'ext': 'mp4', |             'ext': 'mp4', | ||||||
|             'title': '[9월 모의고사 해설강의][수학_김상희] 수학 A형 16~20번', |             'title': '[9월 모의고사 해설강의][수학_김상희] 수학 A형 16~20번', | ||||||
|             'description': '합격불변의 법칙 메가스터디 | 메가스터디 수학 김상희 선생님이 9월 모의고사 수학A형 16번에서 20번까지 해설강의를 공개합니다.', |             'description': '합격불변의 법칙 메가스터디 | 메가스터디 수학 김상희 선생님이 9월 모의고사 수학A형 16번에서 20번까지 해설강의를 공개합니다.', | ||||||
|             'upload_date': '20130903', |  | ||||||
|         }, |         }, | ||||||
|     }, { |     }, { | ||||||
|         'url': 'http://tvcast.naver.com/v/395837', |         'url': 'http://tvcast.naver.com/v/395837', | ||||||
| @ -33,7 +30,6 @@ class NaverIE(InfoExtractor): | |||||||
|             'ext': 'mp4', |             'ext': 'mp4', | ||||||
|             'title': '9년이 지나도 아픈 기억, 전효성의 아버지', |             'title': '9년이 지나도 아픈 기억, 전효성의 아버지', | ||||||
|             'description': 'md5:5bf200dcbf4b66eb1b350d1eb9c753f7', |             'description': 'md5:5bf200dcbf4b66eb1b350d1eb9c753f7', | ||||||
|             'upload_date': '20150519', |  | ||||||
|         }, |         }, | ||||||
|         'skip': 'Georestricted', |         'skip': 'Georestricted', | ||||||
|     }] |     }] | ||||||
| @ -51,48 +47,65 @@ class NaverIE(InfoExtractor): | |||||||
|             if error: |             if error: | ||||||
|                 raise ExtractorError(error, expected=True) |                 raise ExtractorError(error, expected=True) | ||||||
|             raise ExtractorError('couldn\'t extract vid and key') |             raise ExtractorError('couldn\'t extract vid and key') | ||||||
|         vid = m_id.group(1) |         video_data = self._download_json('http://play.rmcnmv.naver.com/vod/play/v2.0/' + m_id.group(1), video_id, query={ | ||||||
|         key = m_id.group(2) |             'key': m_id.group(2), | ||||||
|         query = compat_urllib_parse_urlencode({'vid': vid, 'inKey': key, }) |  | ||||||
|         query_urls = compat_urllib_parse_urlencode({ |  | ||||||
|             'masterVid': vid, |  | ||||||
|             'protocol': 'p2p', |  | ||||||
|             'inKey': key, |  | ||||||
|         }) |         }) | ||||||
|         info = self._download_xml( |         meta = video_data['meta'] | ||||||
|             'http://serviceapi.rmcnmv.naver.com/flash/videoInfo.nhn?' + query, |         title = meta['subject'] | ||||||
|             video_id, 'Downloading video info') |  | ||||||
|         urls = self._download_xml( |  | ||||||
|             'http://serviceapi.rmcnmv.naver.com/flash/playableEncodingOption.nhn?' + query_urls, |  | ||||||
|             video_id, 'Downloading video formats info') |  | ||||||
| 
 |  | ||||||
|         formats = [] |         formats = [] | ||||||
|         for format_el in urls.findall('EncodingOptions/EncodingOption'): | 
 | ||||||
|             domain = format_el.find('Domain').text |         def extract_formats(streams, stream_type, query={}): | ||||||
|             uri = format_el.find('uri').text |             for stream in streams: | ||||||
|             f = { |                 stream_url = stream.get('source') | ||||||
|                 'url': compat_urlparse.urljoin(domain, uri), |                 if not stream_url: | ||||||
|                 'ext': 'mp4', |                     continue | ||||||
|                 'width': int(format_el.find('width').text), |                 stream_url = update_url_query(stream_url, query) | ||||||
|                 'height': int(format_el.find('height').text), |                 encoding_option = stream.get('encodingOption', {}) | ||||||
|             } |                 bitrate = stream.get('bitrate', {}) | ||||||
|             if domain.startswith('rtmp'): |                 formats.append({ | ||||||
|                 # urlparse does not support custom schemes |                     'format_id': '%s_%s' % (stream.get('type') or stream_type, encoding_option.get('id') or encoding_option.get('name')), | ||||||
|                 # https://bugs.python.org/issue18828 |                     'url': stream_url, | ||||||
|                 f.update({ |                     'width': int_or_none(encoding_option.get('width')), | ||||||
|                     'url': domain + uri, |                     'height': int_or_none(encoding_option.get('height')), | ||||||
|                     'ext': 'flv', |                     'vbr': int_or_none(bitrate.get('video')), | ||||||
|                     'rtmp_protocol': '1',  # rtmpt |                     'abr': int_or_none(bitrate.get('audio')), | ||||||
|  |                     'filesize': int_or_none(stream.get('size')), | ||||||
|  |                     'protocol': 'm3u8_native' if stream_type == 'HLS' else None, | ||||||
|                 }) |                 }) | ||||||
|             formats.append(f) | 
 | ||||||
|  |         extract_formats(video_data.get('videos', {}).get('list', []), 'H264') | ||||||
|  |         for stream_set in video_data.get('streams', []): | ||||||
|  |             query = {} | ||||||
|  |             for param in stream_set.get('keys', []): | ||||||
|  |                 query[param['name']] = param['value'] | ||||||
|  |             stream_type = stream_set.get('type') | ||||||
|  |             videos = stream_set.get('videos') | ||||||
|  |             if videos: | ||||||
|  |                 extract_formats(videos, stream_type, query) | ||||||
|  |             elif stream_type == 'HLS': | ||||||
|  |                 stream_url = stream_set.get('source') | ||||||
|  |                 if not stream_url: | ||||||
|  |                     continue | ||||||
|  |                 formats.extend(self._extract_m3u8_formats( | ||||||
|  |                     update_url_query(stream_url, query), video_id, | ||||||
|  |                     'mp4', 'm3u8_native', m3u8_id=stream_type, fatal=False)) | ||||||
|         self._sort_formats(formats) |         self._sort_formats(formats) | ||||||
| 
 | 
 | ||||||
|  |         subtitles = {} | ||||||
|  |         for caption in video_data.get('captions', {}).get('list', []): | ||||||
|  |             caption_url = caption.get('source') | ||||||
|  |             if not caption_url: | ||||||
|  |                 continue | ||||||
|  |             subtitles.setdefault(caption.get('language') or caption.get('locale'), []).append({ | ||||||
|  |                 'url': caption_url, | ||||||
|  |             }) | ||||||
|  | 
 | ||||||
|         return { |         return { | ||||||
|             'id': video_id, |             'id': video_id, | ||||||
|             'title': info.find('Subject').text, |             'title': title, | ||||||
|             'formats': formats, |             'formats': formats, | ||||||
|  |             'subtitles': subtitles, | ||||||
|             'description': self._og_search_description(webpage), |             'description': self._og_search_description(webpage), | ||||||
|             'thumbnail': self._og_search_thumbnail(webpage), |             'thumbnail': meta.get('cover', {}).get('source') or self._og_search_thumbnail(webpage), | ||||||
|             'upload_date': info.find('WriteDate').text.replace('.', ''), |             'view_count': int_or_none(meta.get('count')), | ||||||
|             'view_count': int(info.find('PlayCount').text), |  | ||||||
|         } |         } | ||||||
|  | |||||||
		Loading…
	
	
			
			x
			
			
		
	
		Reference in New Issue
	
	Block a user