<?xml version="1.0" encoding="UTF-8" ?>

<bugzilla version="5.2"
          urlbase="https://bugzilla.altlinux.org/"
          
          maintainer="jenya@basealt.ru"
>

    <bug>
          <bug_id>25855</bug_id>
          
          <creation_ts>2011-07-05 01:22:35 +0400</creation_ts>
          <short_desc>Kernel panic 1-2 раза в неделю</short_desc>
          <delta_ts>2019-03-13 10:35:59 +0300</delta_ts>
          <reporter_accessible>1</reporter_accessible>
          <cclist_accessible>1</cclist_accessible>
          <classification_id>4</classification_id>
          <classification>Development</classification>
          <product>Sisyphus</product>
          <component>kernel-image-ovz-el</component>
          <version>unstable</version>
          <rep_platform>all</rep_platform>
          <op_sys>Linux</op_sys>
          <bug_status>CLOSED</bug_status>
          <resolution>WONTFIX</resolution>
          
          
          <bug_file_loc>http://bugzilla.openvz.org/show_bug.cgi?id=1880</bug_file_loc>
          <status_whiteboard></status_whiteboard>
          <keywords></keywords>
          <priority>P3</priority>
          <bug_severity>blocker</bug_severity>
          <target_milestone>---</target_milestone>
          
          
          <everconfirmed>1</everconfirmed>
          <reporter name="Slava Dubrovskiy">dubrsl</reporter>
          <assigned_to name="Gleb F-Malinovskiy">glebfm</assigned_to>
          <cc>asy</cc>
    
    <cc>boyarsh</cc>
    
    <cc>enp</cc>
    
    <cc>glebfm</cc>
    
    <cc>grenka</cc>
    
    <cc>kernelbot</cc>
    
    <cc>ldv</cc>
    
    <cc>mike</cc>
    
    <cc>mithraen</cc>
    
    <cc>rider</cc>
    
    <cc>sbolshakov</cc>
    
    <cc>shrek</cc>
    
    <cc>sin</cc>
    
    <cc>vitty</cc>
    
    <cc>vsu</cc>
    
    <cc>vt</cc>
    
    <cc>zerg</cc>
          
          <qa_contact>qa-sisyphus</qa_contact>

      

      

      

          <comment_sort_order>oldest_to_newest</comment_sort_order>  
          <long_desc isprivate="0" >
    <commentid>122855</commentid>
    <comment_count>0</comment_count>
    <who name="Slava Dubrovskiy">dubrsl</who>
    <bug_when>2011-07-05 01:22:35 +0400</bug_when>
    <thetext>Есть один сервер на котором периодически (1-2 раза в неделю) происходит
ребут в результате kernel panic.

Перед ребутом LA уходит в космос - выше 200.
Ядро 2.6.32-ovz-el-alt24

Стоит 2 SATA диска в raid1 на mdadm на котором установлена система и все
служебные VPS
И 2 SAS диска из которых собран софтовый raid1 на базе:

04:00.0 SCSI storage controller: LSI Logic / Symbios Logic SAS1064ET PCI-Express Fusion-MPT SAS (rev 02)
        Subsystem: Intel Corporation Device 3479
        Flags: bus master, fast devsel, latency 0, IRQ 17
        I/O ports at 3000 [size=256]
        Memory at b8910000 (64-bit, non-prefetchable) [size=16K]
        Memory at b8900000 (64-bit, non-prefetchable) [size=64K]
        Expansion ROM at b8e00000 [disabled] [size=2M]
        Capabilities: [50] Power Management version 2
        Capabilities: [68] Express Endpoint, MSI 00
        Capabilities: [98] MSI: Enable- Count=1/1 Maskable- 64bit+
        Capabilities: [b0] MSI-X: Enable- Count=1 Masked-
        Capabilities: [100] Advanced Error Reporting
        Kernel driver in use: mptsas
        Kernel modules: mptsas


и с него работает одна рабочая VPS.
Диски по smart живые, ошибок нет.

Есть подозрение на модуль mptsas, т.к. вот подобный баг 
https://bugzilla.redhat.com/show_bug.cgi?id=493093

В логе вот такое перед ребутом вижу:

Jul  4 21:05:51 ua83 kernel: [293760.725062] INFO: task flush-253:1:1294
blocked for more than 120
seconds.                                                            
Jul  4 21:05:59 ua83 kernel: [293760.725069] &quot;echo 0 &gt;
/proc/sys/kernel/hung_task_timeout_secs&quot; disables this
message.                                                 
Jul  4 21:06:26 ua83 kernel: [293760.725074] flush-253:1   D
ffff8801dcb82c90     0  1294      2
0x00000000                                                            
Jul  4 21:07:33 ua83 kernel: [293760.725083]  ffff8801d5a0ba10
0000000000000046 0000000000000000
ffffffffa02cc12c                                                      
Jul  4 21:07:33 ua83 kernel: [293760.725091]  ffff88013696e5a8
ffffffff811b3e70 ffffffffa00d3c40
00000001117b8ec4                                                      
Jul  4 21:07:33 ua83 kernel: [293760.725098]  ffff8801dcb83270
ffff8801d5a0bfd8 000000000000f7c8
ffff8801dcb83270                                                      
Jul  4 21:07:33 ua83 kernel: [293760.725106] Call
Trace:                                                                                                               

Jul  4 21:07:33 ua83 kernel: [293760.725132]  [&lt;ffffffffa02cc12c&gt;] ?
dm_table_unplug_all+0x5c/0xd0
[dm_mod]                                                            
Jul  4 21:07:33 ua83 kernel: [293760.725155]  [&lt;ffffffff811b3e70&gt;] ?
end_buffer_async_write+0x0/0x190                                                                  
Jul  4 21:07:33 ua83 kernel: [293760.725185]  [&lt;ffffffffa00d3c40&gt;] ?
ext4_bh_delay_or_unwritten+0x0/0x30
[ext4]                                                        
Jul  4 21:07:33 ua83 kernel: [293760.725195]  [&lt;ffffffff813ff403&gt;]
io_schedule+0xa3/0x110                                                                              
Jul  4 21:07:33 ua83 kernel: [293760.725202]  [&lt;ffffffff8111a6e0&gt;] ?
sync_page+0x0/0x50                                                                                
Jul  4 21:07:45 ua83 kernel: [293760.725207]  [&lt;ffffffff8111a71d&gt;]
sync_page+0x3d/0x50                                                                                 
Jul  4 21:08:27 ua83 kernel: [293760.725212]  [&lt;ffffffff813ffc8f&gt;]
__wait_on_bit+0x5f/0x90                                                                             
Jul  4 21:08:29 ua83 kernel: [293760.725218]  [&lt;ffffffff8111a8d3&gt;]
wait_on_page_bit+0x73/0x80                                                                          
Jul  4 21:08:38 ua83 kernel: [293760.725225]  [&lt;ffffffff81091a30&gt;] ?
wake_bit_function+0x0/0x50                                                                        
Jul  4 21:08:38 ua83 kernel: [293760.725234]  [&lt;ffffffff81131355&gt;] ?
pagevec_lookup_tag+0x25/0x40                                                                      
Jul  4 21:08:38 ua83 kernel: [293760.725239]  [&lt;ffffffff8111ac9b&gt;]
wait_on_page_writeback_range+0xfb/0x190                                                             
Jul  4 21:08:38 ua83 kernel: [293760.725245]  [&lt;ffffffff8111ad5f&gt;]
filemap_fdatawait+0x2f/0x40                                                                         
Jul  4 21:08:38 ua83 kernel: [293760.725252]  [&lt;ffffffff811ab418&gt;]
writeback_single_inode+0x238/0x2e0                                                                  
Jul  4 21:08:38 ua83 kernel: [293760.725258]  [&lt;ffffffff811ab706&gt;]
writeback_sb_inodes+0xf6/0x1b0                                                                      
Jul  4 21:08:38 ua83 kernel: [293760.725263]  [&lt;ffffffff811abae0&gt;]
wb_writeback+0x170/0x400                                                                            
Jul  4 21:08:38 ua83 kernel: [293760.725268]  [&lt;ffffffff813feb4c&gt;] ?
thread_return+0x4e/0x862                                                                          
Jul  4 21:08:38 ua83 kernel: [293760.725276]  [&lt;ffffffff8107c7ba&gt;] ?
del_timer_sync+0x2a/0x40                                                                          
Jul  4 21:08:38 ua83 kernel: [293760.725281]  [&lt;ffffffff811abe35&gt;]
wb_do_writeback+0xc5/0x250                                                                          
Jul  4 21:08:38 ua83 kernel: [293760.725286]  [&lt;ffffffff8107bd20&gt;] ?
process_timeout+0x0/0x10                                                                          
Jul  4 21:08:38 ua83 kernel: [293760.725292]  [&lt;ffffffff811ac027&gt;]
bdi_writeback_task+0x67/0x1c0                                                                       
Jul  4 21:08:38 ua83 kernel: [293760.725297]  [&lt;ffffffff810918c7&gt;] ?
bit_waitqueue+0x17/0xc0                                                                           
Jul  4 21:08:38 ua83 kernel: [293760.725305]  [&lt;ffffffff81141556&gt;]
bdi_start_fn+0x86/0x100                                                                             
Jul  4 21:08:38 ua83 kernel: [293760.725310]  [&lt;ffffffff811414d0&gt;] ?
bdi_start_fn+0x0/0x100                                                                            
Jul  4 21:08:38 ua83 kernel: [293760.725315]  [&lt;ffffffff81091680&gt;]
kthread+0xc0/0xe0                                                                                   
Jul  4 21:08:38 ua83 kernel: [293760.725321]  [&lt;ffffffff8100c2ca&gt;]
child_rip+0xa/0x20                                                                                  
Jul  4 21:08:38 ua83 kernel: [293760.725326]  [&lt;ffffffff810915c0&gt;] ?
kthread+0x0/0xe0                                                                                  
Jul  4 21:08:38 ua83 kernel: [293760.725331]  [&lt;ffffffff8100c2c0&gt;] ?
child_rip+0x0/0x20                                                                                
Jul  4 21:08:38 ua83 kernel: [293760.725336] INFO: task jbd2/dm-1-8:1306
blocked for more than 120
seconds.                                                            
Jul  4 21:09:58 ua83 kernel: [293760.725340] &quot;echo 0 &gt;
/proc/sys/kernel/hung_task_timeout_secs&quot; disables this
message.                                                 
Jul  4 21:10:37 ua83 kernel: [293760.725344] jbd2/dm-1-8   D
ffff8801da9ea640     0  1306      2
0x00000000                                                            
Jul  4 21:10:38 ua83 kernel: [293760.725351]  ffff8801d4951b00
0000000000000046 ffff8801d4951ac0
ffffffffa02cc12c                                                      
Jul  4 21:10:38 ua83 kernel: [293760.725358]  ffff880119e48808
ffff880119eddb40 ffff8801d4951ab0
ffffffff8109c569                                                      
Jul  4 21:10:38 ua83 kernel: [293760.725365]  ffff8801da9eac20
ffff8801d4951fd8 000000000000f7c8
ffff8801da9eac20                                                      
Jul  4 21:10:38 ua83 kernel: [293760.725372] Call
Trace:                                                                                                               
Jul  4 21:10:38 ua83 kernel: [293760.725381]  [&lt;ffffffffa02cc12c&gt;] ?
dm_table_unplug_all+0x5c/0xd0
[dm_mod]                                                            
Jul  4 21:10:38 ua83 kernel: [293760.725388]  [&lt;ffffffff8109c569&gt;] ?
ktime_get_ts+0xa9/0xe0                                                                            
Jul  4 21:10:38 ua83 kernel: [293760.725394]  [&lt;ffffffff8109c569&gt;] ?
ktime_get_ts+0xa9/0xe0                                                                            
Jul  4 21:10:38 ua83 kernel: [293760.725399]  [&lt;ffffffff813ff403&gt;]
io_schedule+0xa3/0x110                                                                              
Jul  4 21:10:38 ua83 kernel: [293760.725404]  [&lt;ffffffff8111a6e0&gt;] ?
sync_page+0x0/0x50                                                                                
Jul  4 21:10:38 ua83 kernel: [293760.725409]  [&lt;ffffffff8111a71d&gt;]
sync_page+0x3d/0x50                                                                                 
Jul  4 21:10:38 ua83 kernel: [293760.725414]  [&lt;ffffffff813ffc8f&gt;]
__wait_on_bit+0x5f/0x90                                                                             
Jul  4 21:10:38 ua83 kernel: [293760.725419]  [&lt;ffffffff8111a8d3&gt;]
wait_on_page_bit+0x73/0x80                                                                          
Jul  4 21:10:38 ua83 kernel: [293760.725425]  [&lt;ffffffff81091a30&gt;] ?
wake_bit_function+0x0/0x50                                                                        
Jul  4 21:10:38 ua83 kernel: [293760.725430]  [&lt;ffffffff81131355&gt;] ?
pagevec_lookup_tag+0x25/0x40                                                                      
Jul  4 21:10:38 ua83 kernel: [293760.725436]  [&lt;ffffffff8111ac9b&gt;]
wait_on_page_writeback_range+0xfb/0x190                                                             
Jul  4 21:10:38 ua83 kernel: [293760.725443]  [&lt;ffffffff811b7c9b&gt;] ?
bio_alloc_bioset+0x5b/0xf0                                                                        
Jul  4 21:10:38 ua83 kernel: [293760.725449]  [&lt;ffffffff8111ad5f&gt;]
filemap_fdatawait+0x2f/0x40                                                                         
Jul  4 21:10:38 ua83 kernel: [293760.725462]  [&lt;ffffffffa00a7ec0&gt;]
jbd2_journal_commit_transaction+0x7f0/0x1490
[jbd2]                                                 
Jul  4 21:10:38 ua83 kernel: [293760.725469]  [&lt;ffffffff810919f0&gt;] ?
autoremove_wake_function+0x0/0x40                                                                 
Jul  4 21:10:38 ua83 kernel: [293760.725480]  [&lt;ffffffffa00ad978&gt;]
kjournald2+0xb8/0x220
[jbd2]                                                                        
Jul  4 21:10:38 ua83 kernel: [293760.725486]  [&lt;ffffffff810919f0&gt;] ?
autoremove_wake_function+0x0/0x40                                                                 
Jul  4 21:10:38 ua83 kernel: [293760.725496]  [&lt;ffffffffa00ad8c0&gt;] ?
kjournald2+0x0/0x220
[jbd2]                                                                       
Jul  4 21:10:38 ua83 kernel: [293760.725501]  [&lt;ffffffff81091680&gt;]
kthread+0xc0/0xe0                                                                                   
Jul  4 21:10:38 ua83 kernel: [293760.725506]  [&lt;ffffffff8100c2ca&gt;]
child_rip+0xa/0x20                                                                                  
Jul  4 21:10:38 ua83 kernel: [293760.725511]  [&lt;ffffffff810915c0&gt;] ?
kthread+0x0/0xe0                                                                                  
Jul  4 21:10:38 ua83 kernel: [293760.725516]  [&lt;ffffffff8100c2c0&gt;] ?
child_rip+0x0/0x20</thetext>
  </long_desc><long_desc isprivate="0" >
    <commentid>122864</commentid>
    <comment_count>1</comment_count>
    <who name="aspsk">aspsk</who>
    <bug_when>2011-07-05 12:16:06 +0400</bug_when>
    <thetext>А версия mdadm какая?</thetext>
  </long_desc><long_desc isprivate="0" >
    <commentid>122884</commentid>
    <comment_count>2</comment_count>
    <who name="Slava Dubrovskiy">dubrsl</who>
    <bug_when>2011-07-05 19:05:29 +0400</bug_when>
    <thetext>(В ответ на комментарий №1)
&gt; А версия mdadm какая?
mdadm-3.1.4-alt3
# mdadm --detail --scan
ARRAY /dev/md0 metadata=0.90 UUID=5358b5ea:5ad7b5e6:e1095869:f818a80e
ARRAY /dev/md2 metadata=0.90 UUID=9196ae44:14b5a12b:cd83f0b5:6c2d613c
ARRAY /dev/md1 metadata=0.90 UUID=a4fdfb3b:687860ee:672934b9:16b0b41b</thetext>
  </long_desc><long_desc isprivate="0" >
    <commentid>122885</commentid>
    <comment_count>3</comment_count>
    <who name="Slava Dubrovskiy">dubrsl</who>
    <bug_when>2011-07-05 19:16:23 +0400</bug_when>
    <thetext>(В ответ на комментарий №2)
&gt; (В ответ на комментарий №1)
&gt; &gt; А версия mdadm какая?
Таск flush это первый просто в логе. Затем идут трейсы не только по jbd2/dm, но и по java, postgre и другие. В какой-то момент удалось во время повышенной загрузки перед ребутом зайти на сервер, кильнуть честь процессов и на секунд 30 загрузка снизилась, но потом опять начала расти и потом уже ребут. Такое я видел только когда происходит блокировка IO диска. Например при ресайзе на грячую. Именно поэтому грешу на контроллер. И еще в пользу mptsas то, что от других серверов с аналогичной конфигурацией он отличается именно наличием SAS контролеера.
Я попробую собрать новую версию драйвера и попробовать с ним. Если поможет, то тогда будет ясно точно.</thetext>
  </long_desc><long_desc isprivate="0" >
    <commentid>122915</commentid>
    <comment_count>4</comment_count>
    <who name="Michael Shigorin">mike</who>
    <bug_when>2011-07-06 16:50:07 +0400</bug_when>
    <thetext>Тебе, наверное, сюда: http://bugzilla.openvz.org/show_bug.cgi?id=1880</thetext>
  </long_desc><long_desc isprivate="0" >
    <commentid>122916</commentid>
    <comment_count>5</comment_count>
    <who name="Michael Shigorin">mike</who>
    <bug_when>2011-07-06 16:57:46 +0400</bug_when>
    <thetext>PS: mptsas у меня прекрасно себя чувствует на:
* SAS1068 под 2.6.18-ovz-rhel-alt13.M51.15;
* SAS1064ET под 2.6.32-ovz-el-alt{10,13}.
Обе машинки без нареканий.
А похожее было на набортном sata_nv под 2.6.32-ovz-el-alt{17,22,23}.</thetext>
  </long_desc><long_desc isprivate="0" >
    <commentid>126596</commentid>
    <comment_count>6</comment_count>
      <attachid>5177</attachid>
    <who name="Michael Shigorin">mike</who>
    <bug_when>2011-10-28 11:03:59 +0400</bug_when>
    <thetext>Created attachment 5177
vzswap script by Denis Kuznetsov

2 dubrsl: что сейчас? (до кучи: http://wiki.openvz.org/Vswap и скриптик dek@)</thetext>
  </long_desc><long_desc isprivate="0" >
    <commentid>126598</commentid>
    <comment_count>7</comment_count>
    <who name="Slava Dubrovskiy">dubrsl</who>
    <bug_when>2011-10-28 11:24:12 +0400</bug_when>
    <thetext>(В ответ на комментарий №6)
&gt; Created an attachment (id=5177) [details]
&gt; vzswap script by Denis Kuznetsov
&gt; 
&gt; 2 dubrsl: что сейчас? (до кучи: http://wiki.openvz.org/Vswap и скриптик dek@)

Ну это давно сделано (vswap) в ручном режиме.
По сути - Все плохо. Есть около десятка серверов. В целом конечно работает, но периодически бывают зависы не ясной этиологии. Я связываю с повышенной нагрузкой. Т.е. если нагрузки нет - то работает. Конкретно этот сервер последний месяц не ребутался.
Но есть другой (бэкапный) который при включенной бакуле в контейнере стабильно зависает. Причем так что даже в netconsole ничего записать не успевает. На экране тоже темно.
Вообщем я не спешу переводить сервера с 2.6.18 на 2.6.32. До стабильности еще далековато. Новые сервера конечно приходится сетапить на новом, но от безвыходности.
В рассылке proxmox народ тоже жалуется сильно.</thetext>
  </long_desc><long_desc isprivate="0" >
    <commentid>128023</commentid>
    <comment_count>8</comment_count>
    <who name="Slava Dubrovskiy">dubrsl</who>
    <bug_when>2012-01-01 22:01:19 +0400</bug_when>
    <thetext>В результате этих проблем пришлось отказаться от виртуализации и перенести на HN все задачи. На std-def сервер работал месяц нормально. Вчера нужно было запустить одну виртуалку, в которой только ssd. Сразу получил завис 2 раза. При этом в netconsole удалось выловить 

Jan  1 07:25:05 ua56 [119519.441047] EDAC MC0: UE row 0, channel-a= 0 channel-b= 1 labels &quot;-&quot;: (Branch=0 DRAM-Bank=0 RDWR=Read RAS=0 CAS=0, UE Err=0x20 (Non-Aliased Uncorrectable Non-Mirrored Demand Data ECC)) 
Jan  1 07:27:13 ua56 [119647.543061] EDAC MC0: UE row 0, channel-a= 0 channel-b= 1 labels &quot;-&quot;: (Branch=0 DRAM-Bank=0 RDWR=Read RAS=0 CAS=0, UE Err=0x20 (Non-Aliased Uncorrectable Non-Mirrored Demand Data ECC)) 
Jan  1 07:29:03 ua56 [119757.359456] EDAC MC0: UE row 0, channel-a= 0 channel-b= 1 labels &quot;-&quot;: (Branch=0 DRAM-Bank=0 RDWR=Read RAS=0 CAS=0, UE Err=0x20 (Non-Aliased Uncorrectable Non-Mirrored Demand Data ECC)) 
Jan  1 07:29:04 ua56 [119758.606068] EDAC MC0: UE row 0, channel-a= 0 channel-b= 1 labels &quot;-&quot;: (Branch=0 DRAM-Bank=0 RDWR=Read RAS=0 CAS=0, UE Err=0x20 (Non-Aliased Uncorrectable Non-Mirrored Demand Data ECC)) 
Jan  1 07:30:40 ua56 [119854.491555] EDAC MC0: UE row 0, channel-a= 0 channel-b= 1 labels &quot;-&quot;: (Branch=0 DRAM-Bank=0 RDWR=Read RAS=0 CAS=0, UE Err=0x20 (Non-Aliased Uncorrectable Non-Mirrored Demand Data ECC)) 
Jan  1 07:30:41 ua56 [119855.761699] EDAC MC0: UE row 0, channel-a= 0 channel-b= 1 labels &quot;-&quot;: (Branch=0 DRAM-Bank=0 RDWR=Read RAS=0 CAS=0, UE Err=0x20 (Non-Aliased Uncorrectable Non-Mirrored Demand Data ECC))

Что привило на мысль о проблемах с edac.
Нагуглилась схожая проблема: http://lists.us.dell.com/pipermail/linux-poweredge/2010-October/043457.html

Попробовал выгрузить модуль и поставить в blacklist. Наблюдаю дальше.</thetext>
  </long_desc><long_desc isprivate="0" >
    <commentid>173363</commentid>
    <comment_count>9</comment_count>
    <who name="Grigory Ustinov">grenka</who>
    <bug_when>2018-08-13 16:41:08 +0300</bug_when>
    <thetext>Бага всё ещё актуальна?</thetext>
  </long_desc><long_desc isprivate="0" >
    <commentid>179402</commentid>
    <comment_count>10</comment_count>
    <who name="Sergey Y. Afonin">asy</who>
    <bug_when>2019-03-13 10:35:59 +0300</bug_when>
    <thetext>(In reply to comment #9)

&gt; Бага всё ещё актуальна?

Ввиду отсутствия kernel-image-ovz-el в Sisyphus уже, видимо, нет. Теоретически можно на p8 перевесить, но там уже вагон обновлений - alt166 текущее. У меня alt162 нормально работает, но VPS-ка на железном RAID, так что не та конфигурация. Наверное, надо как WONTFIX закрыть.</thetext>
  </long_desc>
      
          <attachment
              isobsolete="0"
              ispatch="0"
              isprivate="0"
          >
            <attachid>5177</attachid>
            <date>2011-10-28 11:03:59 +0400</date>
            <delta_ts>2011-10-28 11:03:59 +0400</delta_ts>
            <desc>vzswap script by Denis Kuznetsov</desc>
            <filename>vzswap</filename>
            <type>text/plain</type>
            <size>478</size>
            <attacher name="Michael Shigorin">mike</attacher>
            
              <data encoding="base64">IyEvYmluL3NoCgpWRUlEPSIkMSIKUkFNPSIkMiIKU1dBUD0iJDMiCmlmIFsgLXogIiRWRUlEIiAt
byAteiAiJFJBTSIgLW8gLXogIiRTV0FQIiBdCnRoZW4KCWVjaG8gUnVuOiAkMCBWRUlEIFJBTSBT
V0FQCglleGl0IDEKZmkKCk1FTVRPVEFMPSQoYXdrICcvXk1lbVRvdGFsOi8geyBwcmludCAkMjsg
fScgL3Byb2MvYmMvMC9tZW1pbmZvICkKUEhZU1BBR0VTPSRSQU0KCmVjaG8gdnpjdGwgc2V0ICRW
RUlEIC0tc2F2ZSAtLXBoeXNwYWdlcyAke1JBTX1NICAtLXN3YXBwYWdlcyAke1NXQVB9TSBcXApl
Y2hvICIgICAtLXByaXZ2bXBhZ2VzICQoKE1FTVRPVEFMKjUvMTApKUs6JCgoTUVNVE9UQUwqNi8x
MCkpSyBcXCIKZWNobyAiICAgLS1rbWVtc2l6ZSAgJCgoKCR7UkFNfSo5KS8yMCkpTTokKCgke1JB
TX0vMikpTSBcXCIKZWNobyAiICAgLS1kY2FjaGVzaXplICQoKCR7UkFNfS80KSlNIC0tbG9ja2Vk
cGFnZXMgJCgoJHtSQU19LzIpKU0iCg==
</data>

          </attachment>
      

    </bug>

</bugzilla>