hyb
2025-11-10 e0a856b5072c5a09f3f6de6da85abf90e00ee704
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
Ë
Añúhz?ãó0—UddlZddlZddlZddlZ    ddlmZddlm    Z    m
Z
ddl m Z d„Z d„ZGd„de«Ze e«Zej&d    „«Zd
„Zd „Zd „Zd „Zee«j5d«j7d¬«Zeed<Gd„d«Zd%d„ZGd„de «Z!e!jDZ#d„Z$Gd„de«Z%Gd„d«Z&d„Z'd„Z(d„Z)d„Z*ejVd „«Z,e,j[e«d!„«Z.d"„Z/d#„Z0d&d$„Z1y#e$r    ddlmZYŒûwxYw)'éN)Úfiles)ÚcomposeÚ method_cache)Ú ExceptionTrapc󇇗ˆˆfd„S)zH
    Return a function that will perform a substitution on a string
    có(•—|j‰‰«S©N©Úreplace)ÚsÚnewÚolds €€úZH:\Change_password\venv_build\Lib\site-packages\setuptools/_vendor/jaraco/text/__init__.pyú<lambda>zsubstitution.<locals>.<lambda>sø€Q—Y‘Y˜s CÓ(€ó©)rr s``rÚ substitutionrs ù€ô )Ð(rcón—tjt|«}tt    |««}t |ŽS)zÆ
    Take a sequence of pairs specifying substitutions, and create
    a function that performs those substitutions.
 
    >>> multi_substitution(('foo', 'bar'), ('bar', 'baz'))('foo')
    'baz'
    )Ú    itertoolsÚstarmaprÚreversedÚtupler)Ú substitutionss rÚmulti_substitutionrs2€ô×%Ñ%¤l°MÓB€MôœU =Ó1Ó2€MÜ MÐ "Ð"rcóh‡—eZdZdZd„Zd„Zd„Zd„Zd„Zˆfd„Z    d„Z
e ˆfd    „«Z d
„Z d d „ZˆxZS) Ú
FoldedCaseu¸
    A case insensitive string class; behaves just like str
    except compares equal when the only variation is case.
 
    >>> s = FoldedCase('hello world')
 
    >>> s == 'Hello World'
    True
 
    >>> 'Hello World' == s
    True
 
    >>> s != 'Hello World'
    False
 
    >>> s.index('O')
    4
 
    >>> s.split('O')
    ['hell', ' w', 'rld']
 
    >>> sorted(map(FoldedCase, ['GAMMA', 'alpha', 'Beta']))
    ['alpha', 'Beta', 'GAMMA']
 
    Sequence membership is straightforward.
 
    >>> "Hello World" in [s]
    True
    >>> s in ["Hello World"]
    True
 
    Allows testing for set inclusion, but candidate and elements
    must both be folded.
 
    >>> FoldedCase("Hello World") in {s}
    True
    >>> s in {FoldedCase("Hello World")}
    True
 
    String inclusion works as long as the FoldedCase object
    is on the right.
 
    >>> "hello" in FoldedCase("Hello World")
    True
 
    But not if the FoldedCase object is on the left:
 
    >>> FoldedCase('hello') in 'Hello World'
    False
 
    In that case, use ``in_``:
 
    >>> FoldedCase('hello').in_('Hello World')
    True
 
    >>> FoldedCase('hello') > FoldedCase('Hello')
    False
 
    >>> FoldedCase('ß') == FoldedCase('ss')
    True
    cóD—|j«|j«kSr    ©Úcasefold©ÚselfÚothers  rÚ__lt__zFoldedCase.__lt__dó€Ø}‰}‹ §¡Ó!1Ñ1Ð1rcóD—|j«|j«kDSr    rr s  rÚ__gt__zFoldedCase.__gt__gr$rcóD—|j«|j«k(Sr    rr s  rÚ__eq__zFoldedCase.__eq__jó€Ø}‰}‹ %§.¡.Ó"2Ñ2Ð2rcóD—|j«|j«k7Sr    rr s  rÚ__ne__zFoldedCase.__ne__mr)rcó4—t|j««Sr    )Úhashr©r!s rÚ__hash__zFoldedCase.__hash__ps€ÜD—M‘M“OÓ$Ð$rcóZ•—t‰|«j|j««Sr    )ÚsuperrÚ __contains__)r!r"Ú    __class__s  €rr2zFoldedCase.__contains__ss#ø€Ü‰wÑÓ!×.Ñ.¨u¯~©~Ó/?Ó@Ð@rcó—|t|«vS)zDoes self appear in other?)rr s  rÚin_zFoldedCase.in_vs€à”z %Ó(Ð(Ð(rcó •—t‰|«Sr    )r1r)r!r3s €rrzFoldedCase.casefold{sø€ä‰wÑÓ!Ð!rcó\—|j«j|j««Sr    )rÚindex)r!Úsubs  rr8zFoldedCase.indexs€Ø}‰}‹×$Ñ$ S§\¡\£^Ó4Ð4rcó”—tjtj|«tj«}|j    ||«Sr    )ÚreÚcompileÚescapeÚIÚsplit)r!ÚsplitterÚmaxsplitÚpatterns    rr?zFoldedCase.split‚s0€Ü—*‘*œRŸY™Y xÓ0´"·$±$Ó7ˆØ}‰}˜T 8Ó,Ð,r)ú r)Ú__name__Ú
__module__Ú __qualname__Ú__doc__r#r&r(r+r/r2r5rrr8r?Ú __classcell__©r3s@rrr%sKø„ñ<ò|2ò2ò3ò3ò%ôAò)ð
ó"óð"ò5÷-rrcó$—|j«y)zª
    Return True if the supplied value is decodable (using the default
    encoding).
 
    >>> is_decodable(b'\xff')
    False
    >>> is_decodable(b'\x32')
    True
    N)Údecode©Úvalues rÚ is_decodablerN‹s €ð
‡LL…Nrcó>—t|t«xr t|« S)z·
    Return True if the value appears to be binary (that is, it's a byte
    string and isn't decodable).
 
    >>> is_binary(b'\xff')
    True
    >>> is_binary('\xff')
    False
    )Ú
isinstanceÚbytesrNrLs rÚ    is_binaryrR™s€ô eœUÓ #Ò ?¬L¸Ó,?Ð(?Ð?rcóH—tj|«j«S)zÅ
    Trim something like a docstring to remove the whitespace that
    is common due to indentation and formatting.
 
    >>> trim("\n\tfoo = bar\n\t\tbar = baz\n")
    'foo = bar\n\tbar = baz'
    )ÚtextwrapÚdedentÚstrip)r s rÚtrimrW¦s€ô ?‰?˜1Ó × #Ñ #Ó %Ð%rcóV—|j«}d„|D«}dj|«S)a 
    Wrap lines of text, retaining existing newlines as
    paragraph markers.
 
    >>> print(wrap(lorem_ipsum))
    Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do
    eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad
    minim veniam, quis nostrud exercitation ullamco laboris nisi ut
    aliquip ex ea commodo consequat. Duis aute irure dolor in
    reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla
    pariatur. Excepteur sint occaecat cupidatat non proident, sunt in
    culpa qui officia deserunt mollit anim id est laborum.
    <BLANKLINE>
    Curabitur pretium tincidunt lacus. Nulla gravida orci a odio. Nullam
    varius, turpis et commodo pharetra, est eros bibendum elit, nec luctus
    magna felis sollicitudin mauris. Integer in mauris eu nibh euismod
    gravida. Duis ac tellus et risus vulputate vehicula. Donec lobortis
    risus a elit. Etiam tempor. Ut ullamcorper, ligula eu tempor congue,
    eros est euismod turpis, id tincidunt sapien risus a quam. Maecenas
    fermentum consequat mi. Donec fermentum. Pellentesque malesuada nulla
    a mi. Duis sapien sem, aliquet nec, commodo eget, consequat quis,
    neque. Aliquam faucibus, elit ut dictum aliquet, felis nisl adipiscing
    sapien, sed malesuada diam lacus eget erat. Cras mollis scelerisque
    nunc. Nullam arcu. Aliquam consequat. Curabitur augue lorem, dapibus
    quis, laoreet et, pretium ac, nisi. Aenean magna nisl, mollis quis,
    molestie eu, feugiat in, orci. In hac habitasse platea dictumst.
    c3ódK—|](}djtj|««–—Œ*y­w)ú
N)ÚjoinrTÚwrap©Ú.0Úparas  rú    <genexpr>zwrap.<locals>.<genexpr>Îs"èø€ÒE°$ˆty‰yœŸ™ tÓ,×-ÑEùs‚.0z
 
)Ú
splitlinesr[)r Ú
paragraphsÚwrappeds   rr\r\±s(€ð8—‘“€JÙE¸*ÔE€GØ ;‰;wÓ Ðrcób—tjd|«}d„|D«}dj|«S)ad
    Given a multi-line string, return an unwrapped version.
 
    >>> wrapped = wrap(lorem_ipsum)
    >>> wrapped.count('\n')
    20
    >>> unwrapped = unwrap(wrapped)
    >>> unwrapped.count('\n')
    1
    >>> print(unwrapped)
    Lorem ipsum dolor sit amet, consectetur adipiscing ...
    Curabitur pretium tincidunt lacus. Nulla gravida orci ...
 
    z\n\n+c3ó@K—|]}|jdd«–—Œy­w)rZrCNr
r]s  rr`zunwrap.<locals>.<genexpr>âsèø€Ò>¨4ˆt|‰|˜D #×&Ñ>ùs‚rZ)r;r?r[)r rbÚcleaneds   rÚunwraprgÒs-€ô—‘˜( AÓ&€JÙ>°:Ô>€GØ 9‰9WÓ ÐrzLorem ipsum.txtúutf-8©ÚencodingÚ lorem_ipsumcó—eZdZdZd„Zd„Zy)ÚSplitterzÚobject that will split a string with the given arguments for each call
 
    >>> s = Splitter(',')
    >>> s('hello, world, this is your, master calling')
    ['hello', ' world', ' this is your', ' master calling']
    có—||_yr    )Úargs)r!ros  rÚ__init__zSplitter.__init__ós    €Øˆ    rcó4—|j|jŽSr    )r?ro)r!r s  rÚ__call__zSplitter.__call__ös€Øˆqw‰w˜Ÿ    ™    Ð"Ð"rN)rDrErFrGrprrrrrrmrmës„ñòó#rrmcó —||zS)z)
    >>> indent('foo')
    '    foo'
    r)ÚstringÚprefixs  rÚindentrvús€ð
F‰?Ðrc󢇗eZdZdZej
d«Zd„Zd„Zd„Z    d„Z
d„Z d„Z d    „Z d
„Zd „Zd „Zˆfd „Zed„«Zed„«ZˆxZS)ÚWordSeta
    Given an identifier, return the words that identifier represents,
    whether in camel case, underscore-separated, etc.
 
    >>> WordSet.parse("camelCase")
    ('camel', 'Case')
 
    >>> WordSet.parse("under_sep")
    ('under', 'sep')
 
    Acronyms should be retained
 
    >>> WordSet.parse("firstSNL")
    ('first', 'SNL')
 
    >>> WordSet.parse("you_and_I")
    ('you', 'and', 'I')
 
    >>> WordSet.parse("A simple test")
    ('A', 'simple', 'test')
 
    Multiple caps should not interfere with the first cap of another word.
 
    >>> WordSet.parse("myABCClass")
    ('my', 'ABC', 'Class')
 
    The result is a WordSet, providing access to other forms.
 
    >>> WordSet.parse("myABCClass").underscore_separated()
    'my_ABC_Class'
 
    >>> WordSet.parse('a-command').camel_case()
    'ACommand'
 
    >>> WordSet.parse('someIdentifier').lowered().space_separated()
    'some identifier'
 
    Slices of the result should return another WordSet.
 
    >>> WordSet.parse('taken-out-of-context')[1:].underscore_separated()
    'out_of_context'
 
    >>> WordSet.from_class_name(WordSet()).lowered().space_separated()
    'word set'
 
    >>> example = WordSet.parse('figured it out')
    >>> example.headless_camel_case()
    'figuredItOut'
    >>> example.dash_separated()
    'figured-it-out'
 
    z ([A-Z]?[a-z]+)|([A-Z]+(?![a-z]))có&—td„|D««S)Nc3ó<K—|]}|j«–—Œy­wr    )Ú
capitalize©r^Úwords  rr`z&WordSet.capitalized.<locals>.<genexpr>;sèø€Ò:¨Tt—‘×(Ñ:ùó‚©rxr.s rÚ capitalizedzWordSet.capitalized:s€ÜÑ:°TÔ:Ó:Ð:rcó&—td„|D««S)Nc3ó<K—|]}|j«–—Œy­wr    )Úlowerr|s  rr`z"WordSet.lowered.<locals>.<genexpr>>sèø€Ò5¨t—z‘z—|Ñ5ùr~rr.s rÚloweredzWordSet.lowered=s€ÜÑ5°Ô5Ó5Ð5rcó@—dj|j««S©NÚ)r[r€r.s rÚ
camel_casezWordSet.camel_case@s€Øw‰wt×'Ñ'Ó)Ó*Ð*rcóȗt|«}t|«j«}tj|ft |«j ««}dj|«Sr†)ÚiterÚnextrƒrÚchainrxrˆr[)r!ÚwordsÚfirstÚ    new_wordss    rÚheadless_camel_casezWordSet.headless_camel_caseCsK€ÜT“
ˆÜU“ ×!Ñ!Ó#ˆÜ—O‘O U H¬g°e«n×.GÑ.GÓ.IÓJˆ    Øw‰wyÓ!Ð!rcó$—dj|«S)NÚ_©r[r.s rÚunderscore_separatedzWordSet.underscore_separatedIó€Øx‰x˜‹~Ðrcó$—dj|«S)Nú-r“r.s rÚdash_separatedzWordSet.dash_separatedLr•rcó$—dj|«S)NrCr“r.s rÚspace_separatedzWordSet.space_separatedOr•rcó$—|r |d|k(r|ddS|S)a 
        Remove the item from the end of the set.
 
        >>> WordSet.parse('foo bar').trim_right('foo')
        ('foo', 'bar')
        >>> WordSet.parse('foo bar').trim_right('bar')
        ('foo',)
        >>> WordSet.parse('').trim_right('bar')
        ()
        éÿÿÿÿNr©r!Úitems  rÚ
trim_rightzWordSet.trim_rightRs"€ñ! T¨"¡X°Ò%5ˆtCRˆyÐ?¸4Ð?rcó$—|r |d|k(r|ddS|S)a
        Remove the item from the beginning of the set.
 
        >>> WordSet.parse('foo bar').trim_left('foo')
        ('bar',)
        >>> WordSet.parse('foo bar').trim_left('bar')
        ('foo', 'bar')
        >>> WordSet.parse('').trim_left('bar')
        ()
        réNrrs  rÚ    trim_leftzWordSet.trim_left_s!€ñ  D¨¡G¨t¢OˆtABˆxÐ=¸Ð=rcóB—|j|«j|«S)zK
        >>> WordSet.parse('foo bar').trim('foo')
        ('bar',)
        )r¢rŸrs  rrWz WordSet.trimls€ð
~‰~˜dÓ#×.Ñ.¨tÓ4Ð4rcó\•—t‰||«}t|t«r t    |«}|Sr    )r1Ú __getitem__rPÚslicerx)r!ržÚresultr3s   €rr¥zWordSet.__getitem__ss*ø€Ü‘Ñ$ TÓ*ˆÜ dœEÔ "ܘV“_ˆF؈ rcó\—|jj|«}td„|D««S)Nc3ó>K—|]}|jd«–—Œy­w)rN©Úgroup©r^Úmatchs  rr`z WordSet.parse.<locals>.<genexpr>|sèø€Ò;¨%u—{‘{ 1—~Ñ;ùs‚)Ú_patternÚfinditerrx)ÚclsÚ
identifierÚmatchess   rÚparsez WordSet.parseys'€à—,‘,×'Ñ'¨
Ó3ˆÜÑ;°7Ô;Ó;Ð;rcóL—|j|jj«Sr    )r³r3rD)r°Úsubjects  rÚfrom_class_namezWordSet.from_class_name~s€ày‰y˜×*Ñ*×3Ñ3Ó4Ð4r)rDrErFrGr;r<r®r€r„rˆrr”r˜ršrŸr¢rWr¥Ú classmethodr³r¶rHrIs@rrxrxs|ø„ñ3ðjˆrz‰zÐ<Ó=€Hò;ò6ò+ò"ò òòò @ò >ò5ôð ñ<óð<ðñ5óô5rrxcóœ—tjdtj«}d„|j|«D«}dj    |«S)a’
    Remove HTML from the string `s`.
 
    >>> str(simple_html_strip(''))
    ''
 
    >>> print(simple_html_strip('A <bold>stormy</bold> day in paradise'))
    A stormy day in paradise
 
    >>> print(simple_html_strip('Somebody <!-- do not --> tell the truth.'))
    Somebody  tell the truth.
 
    >>> print(simple_html_strip('What about<br/>\nmultiple lines?'))
    What about
    multiple lines?
    z(<!--.*?-->)|(<[^>]*>)|([^<]+)c3óFK—|]}|jd«xsd–—Œy­w)ér‡Nrªr¬s  rr`z$simple_html_strip.<locals>.<genexpr>™s èø€Ò I eˆU[‰[˜‹^Ò !˜rÓ !Ñ Iùs‚!r‡)r;r<ÚDOTALLr¯r[)r Ú html_stripperÚtextss   rÚsimple_html_stripr¾‡s<€ô"—J‘JÐ?ÄÇÁÓK€MÙ I¨}×/EÑ/EÀaÓ/HÔ I€EØ 7‰75‹>Ðrcó—eZdZdZdZd„Zy)ÚSeparatedValuesa
    A string separated by a separator. Overrides __iter__ for getting
    the values.
 
    >>> list(SeparatedValues('a,b,c'))
    ['a', 'b', 'c']
 
    Whitespace is stripped and empty values are discarded.
 
    >>> list(SeparatedValues(' a,   b   , c,  '))
    ['a', 'b', 'c']
    ú,có^—|j|j«}tdd„|D««S)Nc3ó<K—|]}|j«–—Œy­wr    )rV)r^Úparts  rr`z+SeparatedValues.__iter__.<locals>.<genexpr>¯sèø€Ò<¨d˜TŸZ™ZŸ\Ñ<ùr~)r?Ú    separatorÚfilter)r!Úpartss  rÚ__iter__zSeparatedValues.__iter__­s'€Ø—
‘
˜4Ÿ>™>Ó*ˆÜdÑ<°eÔ<Ó=Ð=rN)rDrErFrGrÅrÈrrrrÀrÀs„ñ ð€Ió>rrÀcó<—eZdZdZd„Zed„«Zd„Zed„«Z    y)ÚStrippera&
    Given a series of lines, find the common prefix and strip it from them.
 
    >>> lines = [
    ...     'abcdefg\n',
    ...     'abc\n',
    ...     'abcde\n',
    ... ]
    >>> res = Stripper.strip_prefix(lines)
    >>> res.prefix
    'abc'
    >>> list(res.lines)
    ['defg\n', '\n', 'de\n']
 
    If no prefix is common, nothing should be stripped.
 
    >>> lines = [
    ...     'abcd\n',
    ...     '1234\n',
    ... ]
    >>> res = Stripper.strip_prefix(lines)
    >>> res.prefix = ''
    >>> list(res.lines)
    ['abcd\n', '1234\n']
    có4—||_t||«|_yr    )ruÚmapÚlines)r!rurÍs   rrpzStripper.__init__Ís€ØˆŒ ܘ˜uÓ%ˆ
rcó„—tj|«\}}tj|j|«}|||«Sr    )rÚteeÚ    functoolsÚreduceÚ common_prefix)r°rÍÚ prefix_linesrus    rÚ strip_prefixzStripper.strip_prefixÑs:€ä'Ÿm™m¨EÓ2ш eÜ×!Ñ! #×"3Ñ"3°\ÓBˆÙ6˜5Ó!Ð!rcó`—|js|S|j|j«\}}}|Sr    )ruÚ    partition)r!ÚlineÚnullruÚrests     rrrzStripper.__call__×s,€Ø{Š{؈KØ!Ÿ^™^¨D¯K©KÓ8шˆfd؈ rcó€—tt|«t|««}|d||d|k7r|dz}|d||d|k7rŒ|d|S)z8
        Return the common prefix of two lines.
        Nr¡)ÚminÚlen)Ús1Ús2r8s   rrÒzStripper.common_prefixÝsW€ô
”C˜“GœS ›WÓ%ˆØ%ˆj˜B˜v ˜JÒ&Ø Q‰JˆEð%ˆj˜B˜v ˜JÓ&à&5ˆzÐrN)
rDrErFrGrpr·rÔrrÚ staticmethodrÒrrrrÊrʲs9„ñò4&ðñ"óð"ò
ð ñóñrrÊcó0—|j|«\}}}|S)zÝ
    Remove the prefix from the text if it exists.
 
    >>> remove_prefix('underwhelming performance', 'underwhelming ')
    'performance'
 
    >>> remove_prefix('something special', 'sample')
    'something special'
    )Ú
rpartition)ÚtextrurØrÙs    rÚ remove_prefixrãès€ðŸ™¨Ó0Ñ€Dˆ&$Ø €Krcó0—|j|«\}}}|S)z»
    Remove the suffix from the text if it exists.
 
    >>> remove_suffix('name.git', '.git')
    'name'
 
    >>> remove_suffix('something special', 'sample')
    'something special'
    ©rÖ)râÚsuffixrÙrØs    rÚ remove_suffixrçös€ðŸ™¨Ó/Ñ€Dˆ&$Ø €KrcóZ—gd¢}dj|«}tj|d|«S)a    
    Replace alternate newlines with the canonical newline.
 
    >>> normalize_newlines('Lorem Ipsum\u2029')
    'Lorem Ipsum\n'
    >>> normalize_newlines('Lorem Ipsum\r\n')
    'Lorem Ipsum\n'
    >>> normalize_newlines('Lorem Ipsum\x85')
    'Lorem Ipsum\n'
    )z
ú rZõ…u
u
ú|rZ)r[r;r9)râÚnewlinesrBs   rÚnormalize_newlinesrís+€òB€H؏h‰hxÓ €GÜ 6‰6'˜4 Ó &Ð&rcó.—|xr|jd« S)Nú#)Ú
startswith)Ústrs rÚ    _nonblankròs€Ø Ò *s—~‘~ cÓ*Ð*Ð*rcó\—tjjtt|««S)a‚
    Yield valid lines of a string or iterable.
 
    >>> list(yield_lines(''))
    []
    >>> list(yield_lines(['foo', 'bar']))
    ['foo', 'bar']
    >>> list(yield_lines('foo\nbar'))
    ['foo', 'bar']
    >>> list(yield_lines('\nfoo\n#bar\nbaz #comment'))
    ['foo', 'baz #comment']
    >>> list(yield_lines(['foo\nbar', 'baz', 'bing\n\n\n']))
    ['foo', 'bar', 'baz', 'bing']
    )rrŒÚ from_iterablerÌÚ yield_lines)Úiterables rrõrõs €ô  ?‰?× (Ñ (¬¬[¸(Ó)CÓ DÐDrcón—ttttj|j «««Sr    )rÆròrÌrñrVra)râs rr’r’+s!€ä ”)œS¤§¡¨D¯O©OÓ,=Ó>Ó ?Ð?rcó*—|jd«dS)zÇ
    Drop comments.
 
    >>> drop_comment('foo # bar')
    'foo'
 
    A hash without a space may be in a URL.
 
    >>> drop_comment('http://example.com/foo#bar')
    'http://example.com/foo#bar'
    z #rrå)r×s rÚ drop_commentrù0s€ð >‰>˜$Ó  Ñ "Ð"rc#óÞK—t|«}|D]I}|jd«r2    |ddj«t|«z}|jd«rŒ2|–—ŒKy#t$rYywxYw­w)a^
    Join lines continued by a trailing backslash.
 
    >>> list(join_continuation(['foo \\', 'bar', 'baz']))
    ['foobar', 'baz']
    >>> list(join_continuation(['foo \\', 'bar', 'baz']))
    ['foobar', 'baz']
    >>> list(join_continuation(['foo \\', 'bar \\', 'baz']))
    ['foobarbaz']
 
    Not sure why, but...
    The character preceding the backslash is also elided.
 
    >>> list(join_continuation(['goo\\', 'dly']))
    ['godly']
 
    A terrible idea, but...
    If no line is available to continue, suppress the lines.
 
    >>> list(join_continuation(['foo', 'bar\\', 'baz\\']))
    ['foo']
    ú\Néþÿÿÿ)rŠÚendswithrVr‹Ú StopIteration)rÍržs  rÚjoin_continuationrÿ?stèø€ô. ‹K€EØòˆØm‰m˜DÔ!ð Ø˜C˜Ry—‘Ó(¬4°«;Ñ6ðm‰m˜DÕ!ð
‹
ñ øô!ò Úð üs.‚"A-¥AÁA-ÁA-Á    A*Á&A-Á)A*Á*A-có–—t|d¬«5}|j|«ddd«|jS#1swYjSxYw)aÈ
    >>> tmp_path = getfixture('tmp_path')
    >>> filename = tmp_path / 'out.txt'
    >>> _ = filename.write_text('foo\n', newline='', encoding='utf-8')
    >>> read_newlines(filename)
    '\n'
    >>> _ = filename.write_text('foo\r\n', newline='', encoding='utf-8')
    >>> read_newlines(filename)
    '\r\n'
    >>> _ = filename.write_text('foo\r\nbar\nbing\r', newline='', encoding='utf-8')
    >>> read_newlines(filename)
    ('\r', '\n', '\r\n')
    rhriN)ÚopenÚreadrì)ÚfilenameÚlimitÚfps   rÚ read_newlinesr`s?€ô
ˆh Ô    )ð¨RØ
‰Œ÷à ;‰;Ð÷à ;‰;Ðús    Ž4´A)z    )i)2r;rrTrÐÚimportlib.resourcesrÚ ImportErrorÚimportlib_resourcesÚjaraco.functoolsrrÚjaraco.contextrrrrñrÚUnicodeDecodeErrorÚ _unicode_trapÚpassesrNrRrWr\rgrDÚjoinpathÚ    read_textrkÚ__annotations__rmrvrrxr³rr¾rÀrÊrãrçríròÚsingledispatchrõÚregisterr’rùrÿrrrrú<module>rsaðÜ    ÛÛÛð*Ý)÷3Ý(ò)ò #ô_-ô_-ñFÐ0Ó1€ ð×Ññ
óð
ò
@ò&ò òBñ*
ˆ(ƒO×ÑÐ.Ó/×9Ñ9À7Ð9ÓKð ˆSó÷
#ñ #óô~5ˆeô~5ðD     ‰ €òô,>cô>÷*3ñ3òl ò ò 'ò +ð ×ÑñEóðEð$ ×ѐcÓñ@óð@ò #òôBøðqò*ß)ð*ús“DÄ DÄD