Merge git://git.kernel.org/pub/scm/linux/kernel/git/davem/net-2.6
[pandora-kernel.git] / arch / s390 / kernel / entry.S
1 /*
2  *  arch/s390/kernel/entry.S
3  *    S390 low-level entry points.
4  *
5  *    Copyright (C) IBM Corp. 1999,2006
6  *    Author(s): Martin Schwidefsky (schwidefsky@de.ibm.com),
7  *               Hartmut Penner (hp@de.ibm.com),
8  *               Denis Joseph Barrow (djbarrow@de.ibm.com,barrow_dj@yahoo.com),
9  *               Heiko Carstens <heiko.carstens@de.ibm.com>
10  */
11
12 #include <linux/sys.h>
13 #include <linux/linkage.h>
14 #include <linux/init.h>
15 #include <asm/cache.h>
16 #include <asm/errno.h>
17 #include <asm/ptrace.h>
18 #include <asm/thread_info.h>
19 #include <asm/asm-offsets.h>
20 #include <asm/unistd.h>
21 #include <asm/page.h>
22
23 /*
24  * Stack layout for the system_call stack entry.
25  * The first few entries are identical to the user_regs_struct.
26  */
27 SP_PTREGS    =  STACK_FRAME_OVERHEAD
28 SP_ARGS      =  STACK_FRAME_OVERHEAD + __PT_ARGS
29 SP_PSW       =  STACK_FRAME_OVERHEAD + __PT_PSW
30 SP_R0        =  STACK_FRAME_OVERHEAD + __PT_GPRS
31 SP_R1        =  STACK_FRAME_OVERHEAD + __PT_GPRS + 4
32 SP_R2        =  STACK_FRAME_OVERHEAD + __PT_GPRS + 8
33 SP_R3        =  STACK_FRAME_OVERHEAD + __PT_GPRS + 12
34 SP_R4        =  STACK_FRAME_OVERHEAD + __PT_GPRS + 16
35 SP_R5        =  STACK_FRAME_OVERHEAD + __PT_GPRS + 20
36 SP_R6        =  STACK_FRAME_OVERHEAD + __PT_GPRS + 24
37 SP_R7        =  STACK_FRAME_OVERHEAD + __PT_GPRS + 28
38 SP_R8        =  STACK_FRAME_OVERHEAD + __PT_GPRS + 32
39 SP_R9        =  STACK_FRAME_OVERHEAD + __PT_GPRS + 36
40 SP_R10       =  STACK_FRAME_OVERHEAD + __PT_GPRS + 40
41 SP_R11       =  STACK_FRAME_OVERHEAD + __PT_GPRS + 44
42 SP_R12       =  STACK_FRAME_OVERHEAD + __PT_GPRS + 48
43 SP_R13       =  STACK_FRAME_OVERHEAD + __PT_GPRS + 52
44 SP_R14       =  STACK_FRAME_OVERHEAD + __PT_GPRS + 56
45 SP_R15       =  STACK_FRAME_OVERHEAD + __PT_GPRS + 60
46 SP_ORIG_R2   =  STACK_FRAME_OVERHEAD + __PT_ORIG_GPR2
47 SP_ILC       =  STACK_FRAME_OVERHEAD + __PT_ILC
48 SP_SVCNR     =  STACK_FRAME_OVERHEAD + __PT_SVCNR
49 SP_SIZE      =  STACK_FRAME_OVERHEAD + __PT_SIZE
50
51 _TIF_WORK_SVC = (_TIF_SIGPENDING | _TIF_NOTIFY_RESUME | _TIF_NEED_RESCHED | \
52                  _TIF_MCCK_PENDING | _TIF_RESTART_SVC | _TIF_SINGLE_STEP )
53 _TIF_WORK_INT = (_TIF_SIGPENDING | _TIF_NOTIFY_RESUME | _TIF_NEED_RESCHED | \
54                  _TIF_MCCK_PENDING)
55 _TIF_SYSCALL = (_TIF_SYSCALL_TRACE>>8 | _TIF_SYSCALL_AUDIT>>8 | \
56                 _TIF_SECCOMP>>8 | _TIF_SYSCALL_TRACEPOINT>>8)
57
58 STACK_SHIFT = PAGE_SHIFT + THREAD_ORDER
59 STACK_SIZE  = 1 << STACK_SHIFT
60
61 #define BASED(name) name-system_call(%r13)
62
63 #ifdef CONFIG_TRACE_IRQFLAGS
64         .macro  TRACE_IRQS_ON
65         basr    %r2,%r0
66         l       %r1,BASED(.Ltrace_irq_on_caller)
67         basr    %r14,%r1
68         .endm
69
70         .macro  TRACE_IRQS_OFF
71         basr    %r2,%r0
72         l       %r1,BASED(.Ltrace_irq_off_caller)
73         basr    %r14,%r1
74         .endm
75 #else
76 #define TRACE_IRQS_ON
77 #define TRACE_IRQS_OFF
78 #endif
79
80 #ifdef CONFIG_LOCKDEP
81         .macro  LOCKDEP_SYS_EXIT
82         tm      SP_PSW+1(%r15),0x01     # returning to user ?
83         jz      0f
84         l       %r1,BASED(.Llockdep_sys_exit)
85         basr    %r14,%r1
86 0:
87         .endm
88 #else
89 #define LOCKDEP_SYS_EXIT
90 #endif
91
92 /*
93  * Register usage in interrupt handlers:
94  *    R9  - pointer to current task structure
95  *    R13 - pointer to literal pool
96  *    R14 - return register for function calls
97  *    R15 - kernel stack pointer
98  */
99
100         .macro  UPDATE_VTIME lc_from,lc_to,lc_sum
101         lm      %r10,%r11,\lc_from
102         sl      %r10,\lc_to
103         sl      %r11,\lc_to+4
104         bc      3,BASED(0f)
105         sl      %r10,BASED(.Lc_1)
106 0:      al      %r10,\lc_sum
107         al      %r11,\lc_sum+4
108         bc      12,BASED(1f)
109         al      %r10,BASED(.Lc_1)
110 1:      stm     %r10,%r11,\lc_sum
111         .endm
112
113         .macro  SAVE_ALL_BASE savearea
114         stm     %r12,%r15,\savearea
115         l       %r13,__LC_SVC_NEW_PSW+4 # load &system_call to %r13
116         .endm
117
118         .macro  SAVE_ALL_SVC psworg,savearea
119         la      %r12,\psworg
120         l       %r15,__LC_KERNEL_STACK  # problem state -> load ksp
121         .endm
122
123         .macro  SAVE_ALL_SYNC psworg,savearea
124         la      %r12,\psworg
125         tm      \psworg+1,0x01          # test problem state bit
126         bz      BASED(2f)               # skip stack setup save
127         l       %r15,__LC_KERNEL_STACK  # problem state -> load ksp
128 #ifdef CONFIG_CHECK_STACK
129         b       BASED(3f)
130 2:      tml     %r15,STACK_SIZE - CONFIG_STACK_GUARD
131         bz      BASED(stack_overflow)
132 3:
133 #endif
134 2:
135         .endm
136
137         .macro  SAVE_ALL_ASYNC psworg,savearea
138         la      %r12,\psworg
139         tm      \psworg+1,0x01          # test problem state bit
140         bnz     BASED(1f)               # from user -> load async stack
141         clc     \psworg+4(4),BASED(.Lcritical_end)
142         bhe     BASED(0f)
143         clc     \psworg+4(4),BASED(.Lcritical_start)
144         bl      BASED(0f)
145         l       %r14,BASED(.Lcleanup_critical)
146         basr    %r14,%r14
147         tm      1(%r12),0x01            # retest problem state after cleanup
148         bnz     BASED(1f)
149 0:      l       %r14,__LC_ASYNC_STACK   # are we already on the async stack ?
150         slr     %r14,%r15
151         sra     %r14,STACK_SHIFT
152         be      BASED(2f)
153 1:      l       %r15,__LC_ASYNC_STACK
154 #ifdef CONFIG_CHECK_STACK
155         b       BASED(3f)
156 2:      tml     %r15,STACK_SIZE - CONFIG_STACK_GUARD
157         bz      BASED(stack_overflow)
158 3:
159 #endif
160 2:
161         .endm
162
163         .macro  CREATE_STACK_FRAME psworg,savearea
164         s       %r15,BASED(.Lc_spsize)  # make room for registers & psw
165         mvc     SP_PSW(8,%r15),0(%r12)  # move user PSW to stack
166         st      %r2,SP_ORIG_R2(%r15)    # store original content of gpr 2
167         icm     %r12,12,__LC_SVC_ILC
168         stm     %r0,%r11,SP_R0(%r15)    # store gprs %r0-%r11 to kernel stack
169         st      %r12,SP_ILC(%r15)
170         mvc     SP_R12(16,%r15),\savearea # move %r12-%r15 to stack
171         la      %r12,0
172         st      %r12,__SF_BACKCHAIN(%r15)       # clear back chain
173         .endm
174
175         .macro  RESTORE_ALL psworg,sync
176         mvc     \psworg(8),SP_PSW(%r15) # move user PSW to lowcore
177         .if !\sync
178         ni      \psworg+1,0xfd          # clear wait state bit
179         .endif
180         lm      %r0,%r15,SP_R0(%r15)    # load gprs 0-15 of user
181         stpt    __LC_EXIT_TIMER
182         lpsw    \psworg                 # back to caller
183         .endm
184
185         .macro REENABLE_IRQS
186         mvc     __SF_EMPTY(1,%r15),SP_PSW(%r15)
187         ni      __SF_EMPTY(%r15),0xbf
188         ssm     __SF_EMPTY(%r15)
189         .endm
190
191 /*
192  * Scheduler resume function, called by switch_to
193  *  gpr2 = (task_struct *) prev
194  *  gpr3 = (task_struct *) next
195  * Returns:
196  *  gpr2 = prev
197  */
198         .globl  __switch_to
199 __switch_to:
200         basr    %r1,0
201 __switch_to_base:
202         tm      __THREAD_per(%r3),0xe8          # new process is using per ?
203         bz      __switch_to_noper-__switch_to_base(%r1) # if not we're fine
204         stctl   %c9,%c11,__SF_EMPTY(%r15)       # We are using per stuff
205         clc     __THREAD_per(12,%r3),__SF_EMPTY(%r15)
206         be      __switch_to_noper-__switch_to_base(%r1) # we got away w/o bashing TLB's
207         lctl    %c9,%c11,__THREAD_per(%r3)      # Nope we didn't
208 __switch_to_noper:
209         l       %r4,__THREAD_info(%r2)          # get thread_info of prev
210         tm      __TI_flags+3(%r4),_TIF_MCCK_PENDING # machine check pending?
211         bz      __switch_to_no_mcck-__switch_to_base(%r1)
212         ni      __TI_flags+3(%r4),255-_TIF_MCCK_PENDING # clear flag in prev
213         l       %r4,__THREAD_info(%r3)          # get thread_info of next
214         oi      __TI_flags+3(%r4),_TIF_MCCK_PENDING # set it in next
215 __switch_to_no_mcck:
216         stm     %r6,%r15,__SF_GPRS(%r15)# store __switch_to registers of prev task
217         st      %r15,__THREAD_ksp(%r2)  # store kernel stack to prev->tss.ksp
218         l       %r15,__THREAD_ksp(%r3)  # load kernel stack from next->tss.ksp
219         lm      %r6,%r15,__SF_GPRS(%r15)# load __switch_to registers of next task
220         st      %r3,__LC_CURRENT        # __LC_CURRENT = current task struct
221         lctl    %c4,%c4,__TASK_pid(%r3) # load pid to control reg. 4
222         l       %r3,__THREAD_info(%r3)  # load thread_info from task struct
223         st      %r3,__LC_THREAD_INFO
224         ahi     %r3,STACK_SIZE
225         st      %r3,__LC_KERNEL_STACK   # __LC_KERNEL_STACK = new kernel stack
226         br      %r14
227
228 __critical_start:
229 /*
230  * SVC interrupt handler routine. System calls are synchronous events and
231  * are executed with interrupts enabled.
232  */
233
234         .globl  system_call
235 system_call:
236         stpt    __LC_SYNC_ENTER_TIMER
237 sysc_saveall:
238         SAVE_ALL_BASE __LC_SAVE_AREA
239         SAVE_ALL_SVC __LC_SVC_OLD_PSW,__LC_SAVE_AREA
240         CREATE_STACK_FRAME __LC_SVC_OLD_PSW,__LC_SAVE_AREA
241         lh      %r7,0x8a          # get svc number from lowcore
242 sysc_vtime:
243         UPDATE_VTIME __LC_EXIT_TIMER,__LC_SYNC_ENTER_TIMER,__LC_USER_TIMER
244 sysc_stime:
245         UPDATE_VTIME __LC_LAST_UPDATE_TIMER,__LC_EXIT_TIMER,__LC_SYSTEM_TIMER
246 sysc_update:
247         mvc     __LC_LAST_UPDATE_TIMER(8),__LC_SYNC_ENTER_TIMER
248 sysc_do_svc:
249         l       %r9,__LC_THREAD_INFO    # load pointer to thread_info struct
250         ltr     %r7,%r7                 # test for svc 0
251         bnz     BASED(sysc_nr_ok)       # svc number > 0
252         # svc 0: system call number in %r1
253         cl      %r1,BASED(.Lnr_syscalls)
254         bnl     BASED(sysc_nr_ok)
255         lr      %r7,%r1           # copy svc number to %r7
256 sysc_nr_ok:
257         sth     %r7,SP_SVCNR(%r15)
258         sll     %r7,2             # svc number *4
259         l       %r8,BASED(.Lsysc_table)
260         tm      __TI_flags+2(%r9),_TIF_SYSCALL
261         mvc     SP_ARGS(4,%r15),SP_R7(%r15)
262         l       %r8,0(%r7,%r8)    # get system call addr.
263         bnz     BASED(sysc_tracesys)
264         basr    %r14,%r8          # call sys_xxxx
265         st      %r2,SP_R2(%r15)   # store return value (change R2 on stack)
266
267 sysc_return:
268         LOCKDEP_SYS_EXIT
269 sysc_tif:
270         tm      __TI_flags+3(%r9),_TIF_WORK_SVC
271         bnz     BASED(sysc_work)  # there is work to do (signals etc.)
272 sysc_restore:
273         RESTORE_ALL __LC_RETURN_PSW,1
274 sysc_done:
275
276 #
277 # There is work to do, but first we need to check if we return to userspace.
278 #
279 sysc_work:
280         tm      SP_PSW+1(%r15),0x01     # returning to user ?
281         bno     BASED(sysc_restore)
282
283 #
284 # One of the work bits is on. Find out which one.
285 #
286 sysc_work_tif:
287         tm      __TI_flags+3(%r9),_TIF_MCCK_PENDING
288         bo      BASED(sysc_mcck_pending)
289         tm      __TI_flags+3(%r9),_TIF_NEED_RESCHED
290         bo      BASED(sysc_reschedule)
291         tm      __TI_flags+3(%r9),_TIF_SIGPENDING
292         bo      BASED(sysc_sigpending)
293         tm      __TI_flags+3(%r9),_TIF_NOTIFY_RESUME
294         bo      BASED(sysc_notify_resume)
295         tm      __TI_flags+3(%r9),_TIF_RESTART_SVC
296         bo      BASED(sysc_restart)
297         tm      __TI_flags+3(%r9),_TIF_SINGLE_STEP
298         bo      BASED(sysc_singlestep)
299         b       BASED(sysc_return)      # beware of critical section cleanup
300
301 #
302 # _TIF_NEED_RESCHED is set, call schedule
303 #
304 sysc_reschedule:
305         l       %r1,BASED(.Lschedule)
306         la      %r14,BASED(sysc_return)
307         br      %r1                     # call scheduler
308
309 #
310 # _TIF_MCCK_PENDING is set, call handler
311 #
312 sysc_mcck_pending:
313         l       %r1,BASED(.Ls390_handle_mcck)
314         la      %r14,BASED(sysc_return)
315         br      %r1                     # TIF bit will be cleared by handler
316
317 #
318 # _TIF_SIGPENDING is set, call do_signal
319 #
320 sysc_sigpending:
321         ni      __TI_flags+3(%r9),255-_TIF_SINGLE_STEP # clear TIF_SINGLE_STEP
322         la      %r2,SP_PTREGS(%r15)     # load pt_regs
323         l       %r1,BASED(.Ldo_signal)
324         basr    %r14,%r1                # call do_signal
325         tm      __TI_flags+3(%r9),_TIF_RESTART_SVC
326         bo      BASED(sysc_restart)
327         tm      __TI_flags+3(%r9),_TIF_SINGLE_STEP
328         bo      BASED(sysc_singlestep)
329         b       BASED(sysc_return)
330
331 #
332 # _TIF_NOTIFY_RESUME is set, call do_notify_resume
333 #
334 sysc_notify_resume:
335         la      %r2,SP_PTREGS(%r15)     # load pt_regs
336         l       %r1,BASED(.Ldo_notify_resume)
337         la      %r14,BASED(sysc_return)
338         br      %r1                     # call do_notify_resume
339
340
341 #
342 # _TIF_RESTART_SVC is set, set up registers and restart svc
343 #
344 sysc_restart:
345         ni      __TI_flags+3(%r9),255-_TIF_RESTART_SVC # clear TIF_RESTART_SVC
346         l       %r7,SP_R2(%r15)         # load new svc number
347         mvc     SP_R2(4,%r15),SP_ORIG_R2(%r15) # restore first argument
348         lm      %r2,%r6,SP_R2(%r15)     # load svc arguments
349         b       BASED(sysc_nr_ok)       # restart svc
350
351 #
352 # _TIF_SINGLE_STEP is set, call do_single_step
353 #
354 sysc_singlestep:
355         ni      __TI_flags+3(%r9),255-_TIF_SINGLE_STEP # clear TIF_SINGLE_STEP
356         mvi     SP_SVCNR(%r15),0xff     # set trap indication to pgm check
357         mvi     SP_SVCNR+1(%r15),0xff
358         la      %r2,SP_PTREGS(%r15)     # address of register-save area
359         l       %r1,BASED(.Lhandle_per) # load adr. of per handler
360         la      %r14,BASED(sysc_return) # load adr. of system return
361         br      %r1                     # branch to do_single_step
362
363 #
364 # call tracehook_report_syscall_entry/tracehook_report_syscall_exit before
365 # and after the system call
366 #
367 sysc_tracesys:
368         l       %r1,BASED(.Ltrace_entry)
369         la      %r2,SP_PTREGS(%r15)     # load pt_regs
370         la      %r3,0
371         srl     %r7,2
372         st      %r7,SP_R2(%r15)
373         basr    %r14,%r1
374         cl      %r2,BASED(.Lnr_syscalls)
375         bnl     BASED(sysc_tracenogo)
376         l       %r8,BASED(.Lsysc_table)
377         lr      %r7,%r2
378         sll     %r7,2                   # svc number *4
379         l       %r8,0(%r7,%r8)
380 sysc_tracego:
381         lm      %r3,%r6,SP_R3(%r15)
382         mvc     SP_ARGS(4,%r15),SP_R7(%r15)
383         l       %r2,SP_ORIG_R2(%r15)
384         basr    %r14,%r8                # call sys_xxx
385         st      %r2,SP_R2(%r15)         # store return value
386 sysc_tracenogo:
387         tm      __TI_flags+2(%r9),_TIF_SYSCALL
388         bz      BASED(sysc_return)
389         l       %r1,BASED(.Ltrace_exit)
390         la      %r2,SP_PTREGS(%r15)     # load pt_regs
391         la      %r14,BASED(sysc_return)
392         br      %r1
393
394 #
395 # a new process exits the kernel with ret_from_fork
396 #
397         .globl  ret_from_fork
398 ret_from_fork:
399         l       %r13,__LC_SVC_NEW_PSW+4
400         l       %r9,__LC_THREAD_INFO    # load pointer to thread_info struct
401         tm      SP_PSW+1(%r15),0x01     # forking a kernel thread ?
402         bo      BASED(0f)
403         st      %r15,SP_R15(%r15)       # store stack pointer for new kthread
404 0:      l       %r1,BASED(.Lschedtail)
405         basr    %r14,%r1
406         TRACE_IRQS_ON
407         stosm   __SF_EMPTY(%r15),0x03   # reenable interrupts
408         b       BASED(sysc_tracenogo)
409
410 #
411 # kernel_execve function needs to deal with pt_regs that is not
412 # at the usual place
413 #
414         .globl  kernel_execve
415 kernel_execve:
416         stm     %r12,%r15,48(%r15)
417         lr      %r14,%r15
418         l       %r13,__LC_SVC_NEW_PSW+4
419         s       %r15,BASED(.Lc_spsize)
420         st      %r14,__SF_BACKCHAIN(%r15)
421         la      %r12,SP_PTREGS(%r15)
422         xc      0(__PT_SIZE,%r12),0(%r12)
423         l       %r1,BASED(.Ldo_execve)
424         lr      %r5,%r12
425         basr    %r14,%r1
426         ltr     %r2,%r2
427         be      BASED(0f)
428         a       %r15,BASED(.Lc_spsize)
429         lm      %r12,%r15,48(%r15)
430         br      %r14
431         # execve succeeded.
432 0:      stnsm   __SF_EMPTY(%r15),0xfc   # disable interrupts
433         l       %r15,__LC_KERNEL_STACK  # load ksp
434         s       %r15,BASED(.Lc_spsize)  # make room for registers & psw
435         l       %r9,__LC_THREAD_INFO
436         mvc     SP_PTREGS(__PT_SIZE,%r15),0(%r12)       # copy pt_regs
437         xc      __SF_BACKCHAIN(4,%r15),__SF_BACKCHAIN(%r15)
438         stosm   __SF_EMPTY(%r15),0x03   # reenable interrupts
439         l       %r1,BASED(.Lexecve_tail)
440         basr    %r14,%r1
441         b       BASED(sysc_return)
442
443 /*
444  * Program check handler routine
445  */
446
447         .globl  pgm_check_handler
448 pgm_check_handler:
449 /*
450  * First we need to check for a special case:
451  * Single stepping an instruction that disables the PER event mask will
452  * cause a PER event AFTER the mask has been set. Example: SVC or LPSW.
453  * For a single stepped SVC the program check handler gets control after
454  * the SVC new PSW has been loaded. But we want to execute the SVC first and
455  * then handle the PER event. Therefore we update the SVC old PSW to point
456  * to the pgm_check_handler and branch to the SVC handler after we checked
457  * if we have to load the kernel stack register.
458  * For every other possible cause for PER event without the PER mask set
459  * we just ignore the PER event (FIXME: is there anything we have to do
460  * for LPSW?).
461  */
462         stpt    __LC_SYNC_ENTER_TIMER
463         SAVE_ALL_BASE __LC_SAVE_AREA
464         tm      __LC_PGM_INT_CODE+1,0x80 # check whether we got a per exception
465         bnz     BASED(pgm_per)          # got per exception -> special case
466         SAVE_ALL_SYNC __LC_PGM_OLD_PSW,__LC_SAVE_AREA
467         CREATE_STACK_FRAME __LC_PGM_OLD_PSW,__LC_SAVE_AREA
468         tm      SP_PSW+1(%r15),0x01     # interrupting from user ?
469         bz      BASED(pgm_no_vtime)
470         UPDATE_VTIME __LC_EXIT_TIMER,__LC_SYNC_ENTER_TIMER,__LC_USER_TIMER
471         UPDATE_VTIME __LC_LAST_UPDATE_TIMER,__LC_EXIT_TIMER,__LC_SYSTEM_TIMER
472         mvc     __LC_LAST_UPDATE_TIMER(8),__LC_SYNC_ENTER_TIMER
473 pgm_no_vtime:
474         l       %r9,__LC_THREAD_INFO    # load pointer to thread_info struct
475         l       %r3,__LC_PGM_ILC        # load program interruption code
476         l       %r4,__LC_TRANS_EXC_CODE
477         REENABLE_IRQS
478         la      %r8,0x7f
479         nr      %r8,%r3
480 pgm_do_call:
481         l       %r7,BASED(.Ljump_table)
482         sll     %r8,2
483         l       %r7,0(%r8,%r7)          # load address of handler routine
484         la      %r2,SP_PTREGS(%r15)     # address of register-save area
485         basr    %r14,%r7                # branch to interrupt-handler
486 pgm_exit:
487         b       BASED(sysc_return)
488
489 #
490 # handle per exception
491 #
492 pgm_per:
493         tm      __LC_PGM_OLD_PSW,0x40   # test if per event recording is on
494         bnz     BASED(pgm_per_std)      # ok, normal per event from user space
495 # ok its one of the special cases, now we need to find out which one
496         clc     __LC_PGM_OLD_PSW(8),__LC_SVC_NEW_PSW
497         be      BASED(pgm_svcper)
498 # no interesting special case, ignore PER event
499         lm      %r12,%r15,__LC_SAVE_AREA
500         lpsw    0x28
501
502 #
503 # Normal per exception
504 #
505 pgm_per_std:
506         SAVE_ALL_SYNC __LC_PGM_OLD_PSW,__LC_SAVE_AREA
507         CREATE_STACK_FRAME __LC_PGM_OLD_PSW,__LC_SAVE_AREA
508         tm      SP_PSW+1(%r15),0x01     # interrupting from user ?
509         bz      BASED(pgm_no_vtime2)
510         UPDATE_VTIME __LC_EXIT_TIMER,__LC_SYNC_ENTER_TIMER,__LC_USER_TIMER
511         UPDATE_VTIME __LC_LAST_UPDATE_TIMER,__LC_EXIT_TIMER,__LC_SYSTEM_TIMER
512         mvc     __LC_LAST_UPDATE_TIMER(8),__LC_SYNC_ENTER_TIMER
513 pgm_no_vtime2:
514         l       %r9,__LC_THREAD_INFO    # load pointer to thread_info struct
515         l       %r1,__TI_task(%r9)
516         tm      SP_PSW+1(%r15),0x01     # kernel per event ?
517         bz      BASED(kernel_per)
518         mvc     __THREAD_per+__PER_atmid(2,%r1),__LC_PER_ATMID
519         mvc     __THREAD_per+__PER_address(4,%r1),__LC_PER_ADDRESS
520         mvc     __THREAD_per+__PER_access_id(1,%r1),__LC_PER_ACCESS_ID
521         oi      __TI_flags+3(%r9),_TIF_SINGLE_STEP # set TIF_SINGLE_STEP
522         l       %r3,__LC_PGM_ILC        # load program interruption code
523         l       %r4,__LC_TRANS_EXC_CODE
524         REENABLE_IRQS
525         la      %r8,0x7f
526         nr      %r8,%r3                 # clear per-event-bit and ilc
527         be      BASED(pgm_exit2)        # only per or per+check ?
528         l       %r7,BASED(.Ljump_table)
529         sll     %r8,2
530         l       %r7,0(%r8,%r7)          # load address of handler routine
531         la      %r2,SP_PTREGS(%r15)     # address of register-save area
532         basr    %r14,%r7                # branch to interrupt-handler
533 pgm_exit2:
534         b       BASED(sysc_return)
535
536 #
537 # it was a single stepped SVC that is causing all the trouble
538 #
539 pgm_svcper:
540         SAVE_ALL_SYNC __LC_SVC_OLD_PSW,__LC_SAVE_AREA
541         CREATE_STACK_FRAME __LC_SVC_OLD_PSW,__LC_SAVE_AREA
542         UPDATE_VTIME __LC_EXIT_TIMER,__LC_SYNC_ENTER_TIMER,__LC_USER_TIMER
543         UPDATE_VTIME __LC_LAST_UPDATE_TIMER,__LC_EXIT_TIMER,__LC_SYSTEM_TIMER
544         mvc     __LC_LAST_UPDATE_TIMER(8),__LC_SYNC_ENTER_TIMER
545         lh      %r7,0x8a                # get svc number from lowcore
546         l       %r9,__LC_THREAD_INFO    # load pointer to thread_info struct
547         l       %r8,__TI_task(%r9)
548         mvc     __THREAD_per+__PER_atmid(2,%r8),__LC_PER_ATMID
549         mvc     __THREAD_per+__PER_address(4,%r8),__LC_PER_ADDRESS
550         mvc     __THREAD_per+__PER_access_id(1,%r8),__LC_PER_ACCESS_ID
551         oi      __TI_flags+3(%r9),_TIF_SINGLE_STEP # set TIF_SINGLE_STEP
552         stosm   __SF_EMPTY(%r15),0x03   # reenable interrupts
553         lm      %r2,%r6,SP_R2(%r15)     # load svc arguments
554         b       BASED(sysc_do_svc)
555
556 #
557 # per was called from kernel, must be kprobes
558 #
559 kernel_per:
560         REENABLE_IRQS
561         mvi     SP_SVCNR(%r15),0xff     # set trap indication to pgm check
562         mvi     SP_SVCNR+1(%r15),0xff
563         la      %r2,SP_PTREGS(%r15)     # address of register-save area
564         l       %r1,BASED(.Lhandle_per) # load adr. of per handler
565         basr    %r14,%r1                # branch to do_single_step
566         b       BASED(pgm_exit)
567
568 /*
569  * IO interrupt handler routine
570  */
571
572         .globl io_int_handler
573 io_int_handler:
574         stck    __LC_INT_CLOCK
575         stpt    __LC_ASYNC_ENTER_TIMER
576         SAVE_ALL_BASE __LC_SAVE_AREA+16
577         SAVE_ALL_ASYNC __LC_IO_OLD_PSW,__LC_SAVE_AREA+16
578         CREATE_STACK_FRAME __LC_IO_OLD_PSW,__LC_SAVE_AREA+16
579         tm      SP_PSW+1(%r15),0x01     # interrupting from user ?
580         bz      BASED(io_no_vtime)
581         UPDATE_VTIME __LC_EXIT_TIMER,__LC_ASYNC_ENTER_TIMER,__LC_USER_TIMER
582         UPDATE_VTIME __LC_LAST_UPDATE_TIMER,__LC_EXIT_TIMER,__LC_SYSTEM_TIMER
583         mvc     __LC_LAST_UPDATE_TIMER(8),__LC_ASYNC_ENTER_TIMER
584 io_no_vtime:
585         TRACE_IRQS_OFF
586         l       %r9,__LC_THREAD_INFO    # load pointer to thread_info struct
587         l       %r1,BASED(.Ldo_IRQ)     # load address of do_IRQ
588         la      %r2,SP_PTREGS(%r15)     # address of register-save area
589         basr    %r14,%r1                # branch to standard irq handler
590 io_return:
591         LOCKDEP_SYS_EXIT
592         TRACE_IRQS_ON
593 io_tif:
594         tm      __TI_flags+3(%r9),_TIF_WORK_INT
595         bnz     BASED(io_work)          # there is work to do (signals etc.)
596 io_restore:
597         RESTORE_ALL __LC_RETURN_PSW,0
598 io_done:
599
600 #
601 # There is work todo, find out in which context we have been interrupted:
602 # 1) if we return to user space we can do all _TIF_WORK_INT work
603 # 2) if we return to kernel code and preemptive scheduling is enabled check
604 #    the preemption counter and if it is zero call preempt_schedule_irq
605 # Before any work can be done, a switch to the kernel stack is required.
606 #
607 io_work:
608         tm      SP_PSW+1(%r15),0x01     # returning to user ?
609         bo      BASED(io_work_user)     # yes -> do resched & signal
610 #ifdef CONFIG_PREEMPT
611         # check for preemptive scheduling
612         icm     %r0,15,__TI_precount(%r9)
613         bnz     BASED(io_restore)       # preemption disabled
614         tm      __TI_flags+3(%r9),_TIF_NEED_RESCHED
615         bno     BASED(io_restore)
616         # switch to kernel stack
617         l       %r1,SP_R15(%r15)
618         s       %r1,BASED(.Lc_spsize)
619         mvc     SP_PTREGS(__PT_SIZE,%r1),SP_PTREGS(%r15)
620         xc      __SF_BACKCHAIN(4,%r1),__SF_BACKCHAIN(%r1) # clear back chain
621         lr      %r15,%r1
622         # TRACE_IRQS_ON already done at io_return, call
623         # TRACE_IRQS_OFF to keep things symmetrical
624         TRACE_IRQS_OFF
625         l       %r1,BASED(.Lpreempt_schedule_irq)
626         basr    %r14,%r1                # call preempt_schedule_irq
627         b       BASED(io_return)
628 #else
629         b       BASED(io_restore)
630 #endif
631
632 #
633 # Need to do work before returning to userspace, switch to kernel stack
634 #
635 io_work_user:
636         l       %r1,__LC_KERNEL_STACK
637         s       %r1,BASED(.Lc_spsize)
638         mvc     SP_PTREGS(__PT_SIZE,%r1),SP_PTREGS(%r15)
639         xc      __SF_BACKCHAIN(4,%r1),__SF_BACKCHAIN(%r1) # clear back chain
640         lr      %r15,%r1
641
642 #
643 # One of the work bits is on. Find out which one.
644 # Checked are: _TIF_SIGPENDING, _TIF_NOTIFY_RESUME, _TIF_NEED_RESCHED
645 #               and _TIF_MCCK_PENDING
646 #
647 io_work_tif:
648         tm      __TI_flags+3(%r9),_TIF_MCCK_PENDING
649         bo      BASED(io_mcck_pending)
650         tm      __TI_flags+3(%r9),_TIF_NEED_RESCHED
651         bo      BASED(io_reschedule)
652         tm      __TI_flags+3(%r9),_TIF_SIGPENDING
653         bo      BASED(io_sigpending)
654         tm      __TI_flags+3(%r9),_TIF_NOTIFY_RESUME
655         bo      BASED(io_notify_resume)
656         b       BASED(io_return)        # beware of critical section cleanup
657
658 #
659 # _TIF_MCCK_PENDING is set, call handler
660 #
661 io_mcck_pending:
662         # TRACE_IRQS_ON already done at io_return
663         l       %r1,BASED(.Ls390_handle_mcck)
664         basr    %r14,%r1                # TIF bit will be cleared by handler
665         TRACE_IRQS_OFF
666         b       BASED(io_return)
667
668 #
669 # _TIF_NEED_RESCHED is set, call schedule
670 #
671 io_reschedule:
672         # TRACE_IRQS_ON already done at io_return
673         l       %r1,BASED(.Lschedule)
674         stosm   __SF_EMPTY(%r15),0x03   # reenable interrupts
675         basr    %r14,%r1                # call scheduler
676         stnsm   __SF_EMPTY(%r15),0xfc   # disable I/O and ext. interrupts
677         TRACE_IRQS_OFF
678         b       BASED(io_return)
679
680 #
681 # _TIF_SIGPENDING is set, call do_signal
682 #
683 io_sigpending:
684         # TRACE_IRQS_ON already done at io_return
685         stosm   __SF_EMPTY(%r15),0x03   # reenable interrupts
686         la      %r2,SP_PTREGS(%r15)     # load pt_regs
687         l       %r1,BASED(.Ldo_signal)
688         basr    %r14,%r1                # call do_signal
689         stnsm   __SF_EMPTY(%r15),0xfc   # disable I/O and ext. interrupts
690         TRACE_IRQS_OFF
691         b       BASED(io_return)
692
693 #
694 # _TIF_SIGPENDING is set, call do_signal
695 #
696 io_notify_resume:
697         # TRACE_IRQS_ON already done at io_return
698         stosm   __SF_EMPTY(%r15),0x03   # reenable interrupts
699         la      %r2,SP_PTREGS(%r15)     # load pt_regs
700         l       %r1,BASED(.Ldo_notify_resume)
701         basr    %r14,%r1                # call do_signal
702         stnsm   __SF_EMPTY(%r15),0xfc   # disable I/O and ext. interrupts
703         TRACE_IRQS_OFF
704         b       BASED(io_return)
705
706 /*
707  * External interrupt handler routine
708  */
709
710         .globl  ext_int_handler
711 ext_int_handler:
712         stck    __LC_INT_CLOCK
713         stpt    __LC_ASYNC_ENTER_TIMER
714         SAVE_ALL_BASE __LC_SAVE_AREA+16
715         SAVE_ALL_ASYNC __LC_EXT_OLD_PSW,__LC_SAVE_AREA+16
716         CREATE_STACK_FRAME __LC_EXT_OLD_PSW,__LC_SAVE_AREA+16
717         tm      SP_PSW+1(%r15),0x01     # interrupting from user ?
718         bz      BASED(ext_no_vtime)
719         UPDATE_VTIME __LC_EXIT_TIMER,__LC_ASYNC_ENTER_TIMER,__LC_USER_TIMER
720         UPDATE_VTIME __LC_LAST_UPDATE_TIMER,__LC_EXIT_TIMER,__LC_SYSTEM_TIMER
721         mvc     __LC_LAST_UPDATE_TIMER(8),__LC_ASYNC_ENTER_TIMER
722 ext_no_vtime:
723         l       %r9,__LC_THREAD_INFO    # load pointer to thread_info struct
724         TRACE_IRQS_OFF
725         la      %r2,SP_PTREGS(%r15)     # address of register-save area
726         l       %r3,__LC_CPU_ADDRESS    # get cpu address + interruption code
727         l       %r4,__LC_EXT_PARAMS     # get external parameters
728         l       %r1,BASED(.Ldo_extint)
729         basr    %r14,%r1
730         b       BASED(io_return)
731
732 __critical_end:
733
734 /*
735  * Machine check handler routines
736  */
737
738         .globl mcck_int_handler
739 mcck_int_handler:
740         stck    __LC_MCCK_CLOCK
741         spt     __LC_CPU_TIMER_SAVE_AREA        # revalidate cpu timer
742         lm      %r0,%r15,__LC_GPREGS_SAVE_AREA  # revalidate gprs
743         SAVE_ALL_BASE __LC_SAVE_AREA+32
744         la      %r12,__LC_MCK_OLD_PSW
745         tm      __LC_MCCK_CODE,0x80     # system damage?
746         bo      BASED(mcck_int_main)    # yes -> rest of mcck code invalid
747         mvc     __LC_MCCK_ENTER_TIMER(8),__LC_CPU_TIMER_SAVE_AREA
748         tm      __LC_MCCK_CODE+5,0x02   # stored cpu timer value valid?
749         bo      BASED(1f)
750         la      %r14,__LC_SYNC_ENTER_TIMER
751         clc     0(8,%r14),__LC_ASYNC_ENTER_TIMER
752         bl      BASED(0f)
753         la      %r14,__LC_ASYNC_ENTER_TIMER
754 0:      clc     0(8,%r14),__LC_EXIT_TIMER
755         bl      BASED(0f)
756         la      %r14,__LC_EXIT_TIMER
757 0:      clc     0(8,%r14),__LC_LAST_UPDATE_TIMER
758         bl      BASED(0f)
759         la      %r14,__LC_LAST_UPDATE_TIMER
760 0:      spt     0(%r14)
761         mvc     __LC_MCCK_ENTER_TIMER(8),0(%r14)
762 1:      tm      __LC_MCCK_CODE+2,0x09   # mwp + ia of old psw valid?
763         bno     BASED(mcck_int_main)    # no -> skip cleanup critical
764         tm      __LC_MCK_OLD_PSW+1,0x01 # test problem state bit
765         bnz     BASED(mcck_int_main)    # from user -> load async stack
766         clc     __LC_MCK_OLD_PSW+4(4),BASED(.Lcritical_end)
767         bhe     BASED(mcck_int_main)
768         clc     __LC_MCK_OLD_PSW+4(4),BASED(.Lcritical_start)
769         bl      BASED(mcck_int_main)
770         l       %r14,BASED(.Lcleanup_critical)
771         basr    %r14,%r14
772 mcck_int_main:
773         l       %r14,__LC_PANIC_STACK   # are we already on the panic stack?
774         slr     %r14,%r15
775         sra     %r14,PAGE_SHIFT
776         be      BASED(0f)
777         l       %r15,__LC_PANIC_STACK   # load panic stack
778 0:      CREATE_STACK_FRAME __LC_MCK_OLD_PSW,__LC_SAVE_AREA+32
779         tm      __LC_MCCK_CODE+2,0x08   # mwp of old psw valid?
780         bno     BASED(mcck_no_vtime)    # no -> skip cleanup critical
781         tm      SP_PSW+1(%r15),0x01     # interrupting from user ?
782         bz      BASED(mcck_no_vtime)
783         UPDATE_VTIME __LC_EXIT_TIMER,__LC_MCCK_ENTER_TIMER,__LC_USER_TIMER
784         UPDATE_VTIME __LC_LAST_UPDATE_TIMER,__LC_EXIT_TIMER,__LC_SYSTEM_TIMER
785         mvc     __LC_LAST_UPDATE_TIMER(8),__LC_MCCK_ENTER_TIMER
786 mcck_no_vtime:
787         l       %r9,__LC_THREAD_INFO    # load pointer to thread_info struct
788         la      %r2,SP_PTREGS(%r15)     # load pt_regs
789         l       %r1,BASED(.Ls390_mcck)
790         basr    %r14,%r1                # call machine check handler
791         tm      SP_PSW+1(%r15),0x01     # returning to user ?
792         bno     BASED(mcck_return)
793         l       %r1,__LC_KERNEL_STACK   # switch to kernel stack
794         s       %r1,BASED(.Lc_spsize)
795         mvc     SP_PTREGS(__PT_SIZE,%r1),SP_PTREGS(%r15)
796         xc      __SF_BACKCHAIN(4,%r1),__SF_BACKCHAIN(%r1) # clear back chain
797         lr      %r15,%r1
798         stosm   __SF_EMPTY(%r15),0x04   # turn dat on
799         tm      __TI_flags+3(%r9),_TIF_MCCK_PENDING
800         bno     BASED(mcck_return)
801         TRACE_IRQS_OFF
802         l       %r1,BASED(.Ls390_handle_mcck)
803         basr    %r14,%r1                # call machine check handler
804         TRACE_IRQS_ON
805 mcck_return:
806         mvc     __LC_RETURN_MCCK_PSW(8),SP_PSW(%r15) # move return PSW
807         ni      __LC_RETURN_MCCK_PSW+1,0xfd # clear wait state bit
808         tm      __LC_RETURN_MCCK_PSW+1,0x01 # returning to user ?
809         bno     BASED(0f)
810         lm      %r0,%r15,SP_R0(%r15)    # load gprs 0-15
811         stpt    __LC_EXIT_TIMER
812         lpsw    __LC_RETURN_MCCK_PSW    # back to caller
813 0:      lm      %r0,%r15,SP_R0(%r15)    # load gprs 0-15
814         lpsw    __LC_RETURN_MCCK_PSW    # back to caller
815
816         RESTORE_ALL __LC_RETURN_MCCK_PSW,0
817
818 /*
819  * Restart interruption handler, kick starter for additional CPUs
820  */
821 #ifdef CONFIG_SMP
822         __CPUINIT
823         .globl restart_int_handler
824 restart_int_handler:
825         basr    %r1,0
826 restart_base:
827         spt     restart_vtime-restart_base(%r1)
828         stck    __LC_LAST_UPDATE_CLOCK
829         mvc     __LC_LAST_UPDATE_TIMER(8),restart_vtime-restart_base(%r1)
830         mvc     __LC_EXIT_TIMER(8),restart_vtime-restart_base(%r1)
831         l       %r15,__LC_SAVE_AREA+60  # load ksp
832         lctl    %c0,%c15,__LC_CREGS_SAVE_AREA # get new ctl regs
833         lam     %a0,%a15,__LC_AREGS_SAVE_AREA
834         lm      %r6,%r15,__SF_GPRS(%r15) # load registers from clone
835         l       %r1,__LC_THREAD_INFO
836         mvc     __LC_USER_TIMER(8),__TI_user_timer(%r1)
837         mvc     __LC_SYSTEM_TIMER(8),__TI_system_timer(%r1)
838         xc      __LC_STEAL_TIMER(8),__LC_STEAL_TIMER
839         stosm   __SF_EMPTY(%r15),0x04   # now we can turn dat on
840         basr    %r14,0
841         l       %r14,restart_addr-.(%r14)
842         br      %r14                    # branch to start_secondary
843 restart_addr:
844         .long   start_secondary
845         .align  8
846 restart_vtime:
847         .long   0x7fffffff,0xffffffff
848         .previous
849 #else
850 /*
851  * If we do not run with SMP enabled, let the new CPU crash ...
852  */
853         .globl restart_int_handler
854 restart_int_handler:
855         basr    %r1,0
856 restart_base:
857         lpsw    restart_crash-restart_base(%r1)
858         .align  8
859 restart_crash:
860         .long   0x000a0000,0x00000000
861 restart_go:
862 #endif
863
864 #ifdef CONFIG_CHECK_STACK
865 /*
866  * The synchronous or the asynchronous stack overflowed. We are dead.
867  * No need to properly save the registers, we are going to panic anyway.
868  * Setup a pt_regs so that show_trace can provide a good call trace.
869  */
870 stack_overflow:
871         l       %r15,__LC_PANIC_STACK   # change to panic stack
872         sl      %r15,BASED(.Lc_spsize)
873         mvc     SP_PSW(8,%r15),0(%r12)  # move user PSW to stack
874         stm     %r0,%r11,SP_R0(%r15)    # store gprs %r0-%r11 to kernel stack
875         la      %r1,__LC_SAVE_AREA
876         ch      %r12,BASED(.L0x020)     # old psw addr == __LC_SVC_OLD_PSW ?
877         be      BASED(0f)
878         ch      %r12,BASED(.L0x028)     # old psw addr == __LC_PGM_OLD_PSW ?
879         be      BASED(0f)
880         la      %r1,__LC_SAVE_AREA+16
881 0:      mvc     SP_R12(16,%r15),0(%r1)  # move %r12-%r15 to stack
882         xc      __SF_BACKCHAIN(4,%r15),__SF_BACKCHAIN(%r15) # clear back chain
883         l       %r1,BASED(1f)           # branch to kernel_stack_overflow
884         la      %r2,SP_PTREGS(%r15)     # load pt_regs
885         br      %r1
886 1:      .long   kernel_stack_overflow
887 #endif
888
889 cleanup_table_system_call:
890         .long   system_call + 0x80000000, sysc_do_svc + 0x80000000
891 cleanup_table_sysc_tif:
892         .long   sysc_tif + 0x80000000, sysc_restore + 0x80000000
893 cleanup_table_sysc_restore:
894         .long   sysc_restore + 0x80000000, sysc_done + 0x80000000
895 cleanup_table_io_tif:
896         .long   io_tif + 0x80000000, io_restore + 0x80000000
897 cleanup_table_io_restore:
898         .long   io_restore + 0x80000000, io_done + 0x80000000
899
900 cleanup_critical:
901         clc     4(4,%r12),BASED(cleanup_table_system_call)
902         bl      BASED(0f)
903         clc     4(4,%r12),BASED(cleanup_table_system_call+4)
904         bl      BASED(cleanup_system_call)
905 0:
906         clc     4(4,%r12),BASED(cleanup_table_sysc_tif)
907         bl      BASED(0f)
908         clc     4(4,%r12),BASED(cleanup_table_sysc_tif+4)
909         bl      BASED(cleanup_sysc_tif)
910 0:
911         clc     4(4,%r12),BASED(cleanup_table_sysc_restore)
912         bl      BASED(0f)
913         clc     4(4,%r12),BASED(cleanup_table_sysc_restore+4)
914         bl      BASED(cleanup_sysc_restore)
915 0:
916         clc     4(4,%r12),BASED(cleanup_table_io_tif)
917         bl      BASED(0f)
918         clc     4(4,%r12),BASED(cleanup_table_io_tif+4)
919         bl      BASED(cleanup_io_tif)
920 0:
921         clc     4(4,%r12),BASED(cleanup_table_io_restore)
922         bl      BASED(0f)
923         clc     4(4,%r12),BASED(cleanup_table_io_restore+4)
924         bl      BASED(cleanup_io_restore)
925 0:
926         br      %r14
927
928 cleanup_system_call:
929         mvc     __LC_RETURN_PSW(8),0(%r12)
930         clc     __LC_RETURN_PSW+4(4),BASED(cleanup_system_call_insn+4)
931         bh      BASED(0f)
932         mvc     __LC_SYNC_ENTER_TIMER(8),__LC_MCCK_ENTER_TIMER
933         c       %r12,BASED(.Lmck_old_psw)
934         be      BASED(0f)
935         mvc     __LC_SYNC_ENTER_TIMER(8),__LC_ASYNC_ENTER_TIMER
936 0:      c       %r12,BASED(.Lmck_old_psw)
937         la      %r12,__LC_SAVE_AREA+32
938         be      BASED(0f)
939         la      %r12,__LC_SAVE_AREA+16
940 0:      clc     __LC_RETURN_PSW+4(4),BASED(cleanup_system_call_insn+8)
941         bhe     BASED(cleanup_vtime)
942         clc     __LC_RETURN_PSW+4(4),BASED(cleanup_system_call_insn)
943         bh      BASED(0f)
944         mvc     __LC_SAVE_AREA(16),0(%r12)
945 0:      st      %r13,4(%r12)
946         st      %r12,__LC_SAVE_AREA+48  # argh
947         SAVE_ALL_SYNC __LC_SVC_OLD_PSW,__LC_SAVE_AREA
948         CREATE_STACK_FRAME __LC_SVC_OLD_PSW,__LC_SAVE_AREA
949         l       %r12,__LC_SAVE_AREA+48  # argh
950         st      %r15,12(%r12)
951         lh      %r7,0x8a
952 cleanup_vtime:
953         clc     __LC_RETURN_PSW+4(4),BASED(cleanup_system_call_insn+12)
954         bhe     BASED(cleanup_stime)
955         UPDATE_VTIME __LC_EXIT_TIMER,__LC_SYNC_ENTER_TIMER,__LC_USER_TIMER
956 cleanup_stime:
957         clc     __LC_RETURN_PSW+4(4),BASED(cleanup_system_call_insn+16)
958         bh      BASED(cleanup_update)
959         UPDATE_VTIME __LC_LAST_UPDATE_TIMER,__LC_EXIT_TIMER,__LC_SYSTEM_TIMER
960 cleanup_update:
961         mvc     __LC_LAST_UPDATE_TIMER(8),__LC_SYNC_ENTER_TIMER
962         mvc     __LC_RETURN_PSW+4(4),BASED(cleanup_table_system_call+4)
963         la      %r12,__LC_RETURN_PSW
964         br      %r14
965 cleanup_system_call_insn:
966         .long   sysc_saveall + 0x80000000
967         .long   system_call + 0x80000000
968         .long   sysc_vtime + 0x80000000
969         .long   sysc_stime + 0x80000000
970         .long   sysc_update + 0x80000000
971
972 cleanup_sysc_tif:
973         mvc     __LC_RETURN_PSW(4),0(%r12)
974         mvc     __LC_RETURN_PSW+4(4),BASED(cleanup_table_sysc_tif)
975         la      %r12,__LC_RETURN_PSW
976         br      %r14
977
978 cleanup_sysc_restore:
979         clc     4(4,%r12),BASED(cleanup_sysc_restore_insn)
980         be      BASED(2f)
981         mvc     __LC_EXIT_TIMER(8),__LC_MCCK_ENTER_TIMER
982         c       %r12,BASED(.Lmck_old_psw)
983         be      BASED(0f)
984         mvc     __LC_EXIT_TIMER(8),__LC_ASYNC_ENTER_TIMER
985 0:      clc     4(4,%r12),BASED(cleanup_sysc_restore_insn+4)
986         be      BASED(2f)
987         mvc     __LC_RETURN_PSW(8),SP_PSW(%r15)
988         c       %r12,BASED(.Lmck_old_psw)
989         la      %r12,__LC_SAVE_AREA+32
990         be      BASED(1f)
991         la      %r12,__LC_SAVE_AREA+16
992 1:      mvc     0(16,%r12),SP_R12(%r15)
993         lm      %r0,%r11,SP_R0(%r15)
994         l       %r15,SP_R15(%r15)
995 2:      la      %r12,__LC_RETURN_PSW
996         br      %r14
997 cleanup_sysc_restore_insn:
998         .long   sysc_done - 4 + 0x80000000
999         .long   sysc_done - 8 + 0x80000000
1000
1001 cleanup_io_tif:
1002         mvc     __LC_RETURN_PSW(4),0(%r12)
1003         mvc     __LC_RETURN_PSW+4(4),BASED(cleanup_table_io_tif)
1004         la      %r12,__LC_RETURN_PSW
1005         br      %r14
1006
1007 cleanup_io_restore:
1008         clc     4(4,%r12),BASED(cleanup_io_restore_insn)
1009         be      BASED(1f)
1010         mvc     __LC_EXIT_TIMER(8),__LC_MCCK_ENTER_TIMER
1011         clc     4(4,%r12),BASED(cleanup_io_restore_insn+4)
1012         be      BASED(1f)
1013         mvc     __LC_RETURN_PSW(8),SP_PSW(%r15)
1014         mvc     __LC_SAVE_AREA+32(16),SP_R12(%r15)
1015         lm      %r0,%r11,SP_R0(%r15)
1016         l       %r15,SP_R15(%r15)
1017 1:      la      %r12,__LC_RETURN_PSW
1018         br      %r14
1019 cleanup_io_restore_insn:
1020         .long   io_done - 4 + 0x80000000
1021         .long   io_done - 8 + 0x80000000
1022
1023 /*
1024  * Integer constants
1025  */
1026                 .align  4
1027 .Lc_spsize:     .long   SP_SIZE
1028 .Lc_overhead:   .long   STACK_FRAME_OVERHEAD
1029 .Lnr_syscalls:  .long   NR_syscalls
1030 .L0x018:        .short  0x018
1031 .L0x020:        .short  0x020
1032 .L0x028:        .short  0x028
1033 .L0x030:        .short  0x030
1034 .L0x038:        .short  0x038
1035 .Lc_1:          .long   1
1036
1037 /*
1038  * Symbol constants
1039  */
1040 .Ls390_mcck:    .long   s390_do_machine_check
1041 .Ls390_handle_mcck:
1042                 .long   s390_handle_mcck
1043 .Lmck_old_psw:  .long   __LC_MCK_OLD_PSW
1044 .Ldo_IRQ:       .long   do_IRQ
1045 .Ldo_extint:    .long   do_extint
1046 .Ldo_signal:    .long   do_signal
1047 .Ldo_notify_resume:
1048                 .long   do_notify_resume
1049 .Lhandle_per:   .long   do_single_step
1050 .Ldo_execve:    .long   do_execve
1051 .Lexecve_tail:  .long   execve_tail
1052 .Ljump_table:   .long   pgm_check_table
1053 .Lschedule:     .long   schedule
1054 #ifdef CONFIG_PREEMPT
1055 .Lpreempt_schedule_irq:
1056                 .long   preempt_schedule_irq
1057 #endif
1058 .Ltrace_entry:  .long   do_syscall_trace_enter
1059 .Ltrace_exit:   .long   do_syscall_trace_exit
1060 .Lschedtail:    .long   schedule_tail
1061 .Lsysc_table:   .long   sys_call_table
1062 #ifdef CONFIG_TRACE_IRQFLAGS
1063 .Ltrace_irq_on_caller:
1064                 .long   trace_hardirqs_on_caller
1065 .Ltrace_irq_off_caller:
1066                 .long   trace_hardirqs_off_caller
1067 #endif
1068 #ifdef CONFIG_LOCKDEP
1069 .Llockdep_sys_exit:
1070                 .long   lockdep_sys_exit
1071 #endif
1072 .Lcritical_start:
1073                 .long   __critical_start + 0x80000000
1074 .Lcritical_end:
1075                 .long   __critical_end + 0x80000000
1076 .Lcleanup_critical:
1077                 .long   cleanup_critical
1078
1079                 .section .rodata, "a"
1080 #define SYSCALL(esa,esame,emu)  .long esa
1081         .globl  sys_call_table
1082 sys_call_table:
1083 #include "syscalls.S"
1084 #undef SYSCALL