Simplify management of SCTLR_EL3 and SCTLR_EL1
authorAchin Gupta <achin.gupta@arm.com>
Fri, 18 Jul 2014 17:38:28 +0000 (18:38 +0100)
committerAchin Gupta <achin.gupta@arm.com>
Mon, 28 Jul 2014 09:10:22 +0000 (10:10 +0100)
This patch reworks the manner in which the M,A, C, SA, I, WXN & EE bits of
SCTLR_EL3 & SCTLR_EL1 are managed. The EE bit is cleared immediately after reset
in EL3. The I, A and SA bits are set next in EL3 and immediately upon entry in
S-EL1. These bits are no longer managed in the blX_arch_setup() functions. They
do not have to be saved and restored either. The M, WXN and optionally the C
bit are set in the enable_mmu_elX() function. This is done during both the warm
and cold boot paths.

Fixes ARM-software/tf-issues#226

Change-Id: Ie894d1a07b8697c116960d858cd138c50bc7a069

bl1/aarch64/bl1_arch_setup.c
bl1/aarch64/bl1_entrypoint.S
bl2/aarch64/bl2_entrypoint.S
bl31/aarch64/bl31_arch_setup.c
bl31/aarch64/bl31_entrypoint.S
bl32/tsp/aarch64/tsp_entrypoint.S
include/lib/aarch64/arch.h
lib/aarch64/xlat_tables.c
services/std_svc/psci/psci_entry.S

index cf69ac7fe5aff17c079410377e022b74d6c9a47d..eeaa24aff142d8aca573203d0808f40a40de9f7f 100644 (file)
  ******************************************************************************/
 void bl1_arch_setup(void)
 {
-       unsigned long tmp_reg = 0;
-
-       /* Enable alignment checks */
-       tmp_reg = read_sctlr_el3();
-       tmp_reg |= (SCTLR_A_BIT | SCTLR_SA_BIT);
-       write_sctlr_el3(tmp_reg);
-       isb();
-
        /*
         * Set the next EL to be AArch64, route external abort and SError
         * interrupts to EL3
         */
-       tmp_reg = SCR_RES1_BITS | SCR_RW_BIT | SCR_EA_BIT;
-       write_scr(tmp_reg);
+       write_scr_el3(SCR_RES1_BITS | SCR_RW_BIT | SCR_EA_BIT);
 
        /*
         * Enable SError and Debug exceptions
index ac6d91331feb9a04d064fe76294bf2532b05e28f..dd7d78feb24152c1658e771c1272dbf903ba42e2 100644 (file)
@@ -44,7 +44,7 @@
 func bl1_entrypoint
        /* ---------------------------------------------
         * Set the CPU endianness before doing anything
-        * that might involve memory reads or writes
+        * that might involve memory reads or writes.
         * ---------------------------------------------
         */
        mrs     x0, sctlr_el3
@@ -59,12 +59,14 @@ func bl1_entrypoint
         */
        bl      cpu_reset_handler
 
-       /* -------------------------------
-        * Enable the instruction cache.
-        * -------------------------------
+       /* ---------------------------------------------
+        * Enable the instruction cache, stack pointer
+        * and data access alignment checks
+        * ---------------------------------------------
         */
+       mov     x1, #(SCTLR_I_BIT | SCTLR_A_BIT | SCTLR_SA_BIT)
        mrs     x0, sctlr_el3
-       orr     x0, x0, #SCTLR_I_BIT
+       orr     x0, x0, x1
        msr     sctlr_el3, x0
        isb
 
index c615baf60a761918461898a6cf58a5db212f2855..6fcd0405b9b9de6a06aa38b6d1918dbe9ca78e9b 100644 (file)
@@ -65,11 +65,13 @@ func bl2_entrypoint
        msr     vbar_el1, x0
 
        /* ---------------------------------------------
-        * Enable the instruction cache.
+        * Enable the instruction cache, stack pointer
+        * and data access alignment checks
         * ---------------------------------------------
         */
+       mov     x1, #(SCTLR_I_BIT | SCTLR_A_BIT | SCTLR_SA_BIT)
        mrs     x0, sctlr_el1
-       orr     x0, x0, #SCTLR_I_BIT
+       orr     x0, x0, x1
        msr     sctlr_el1, x0
        isb
 
index e0382b33f34db269b7ccca507fdff5287ea4b257..f67881e6bea022c2442f20a004b5aee8e3930a48 100644 (file)
  ******************************************************************************/
 void bl31_arch_setup(void)
 {
-       unsigned long tmp_reg = 0;
-       uint64_t counter_freq;
-
-       /* Enable alignment checks */
-       tmp_reg = read_sctlr_el3();
-       tmp_reg |= (SCTLR_A_BIT | SCTLR_SA_BIT);
-       write_sctlr_el3(tmp_reg);
-
        /*
         * Route external abort and SError interrupts to EL3
         * other SCR bits will be configured before exiting to a lower exception
         * level
         */
-       tmp_reg = SCR_RES1_BITS | SCR_EA_BIT;
-       write_scr(tmp_reg);
+       write_scr_el3(SCR_RES1_BITS | SCR_EA_BIT);
 
        /*
         * Enable SError and Debug exceptions
@@ -65,6 +56,5 @@ void bl31_arch_setup(void)
        enable_debug_exceptions();
 
        /* Program the counter frequency */
-       counter_freq = plat_get_syscnt_freq();
-       write_cntfrq_el0(counter_freq);
+       write_cntfrq_el0(plat_get_syscnt_freq());
 }
index 102398377dad266d5862ae0d2cc325fe1e14165a..69d224368a0110ad1a3e58749a34cda58e07b343 100644 (file)
@@ -52,6 +52,15 @@ func bl31_entrypoint
        mov     x20, x0
        mov     x21, x1
 #else
+       /* ---------------------------------------------
+        * Set the CPU endianness before doing anything
+        * that might involve memory reads or writes.
+        * ---------------------------------------------
+        */
+       mrs     x0, sctlr_el3
+       bic     x0, x0, #SCTLR_EE_BIT
+       msr     sctlr_el3, x0
+       isb
 
        /* -----------------------------------------------------
         * Perform any processor specific actions upon reset
@@ -61,14 +70,15 @@ func bl31_entrypoint
         */
        bl      cpu_reset_handler
 #endif
-
        /* ---------------------------------------------
-        * Enable the instruction cache.
+        * Enable the instruction cache, stack pointer
+        * and data access alignment checks
         * ---------------------------------------------
         */
-       mrs     x1, sctlr_el3
-       orr     x1, x1, #SCTLR_I_BIT
-       msr     sctlr_el3, x1
+       mov     x1, #(SCTLR_I_BIT | SCTLR_A_BIT | SCTLR_SA_BIT)
+       mrs     x0, sctlr_el3
+       orr     x0, x0, x1
+       msr     sctlr_el3, x0
        isb
 
        /* ---------------------------------------------
index 7a1797eef5bd8c1f4c8766dccb864aa28d85ea60..91b6128c554e15facafbe8b71806f33e56817546 100644 (file)
@@ -89,11 +89,13 @@ func tsp_entrypoint
        msr     vbar_el1, x0
 
        /* ---------------------------------------------
-        * Enable the instruction cache.
+        * Enable the instruction cache, stack pointer
+        * and data access alignment checks
         * ---------------------------------------------
         */
+       mov     x1, #(SCTLR_I_BIT | SCTLR_A_BIT | SCTLR_SA_BIT)
        mrs     x0, sctlr_el1
-       orr     x0, x0, #SCTLR_I_BIT
+       orr     x0, x0, x1
        msr     sctlr_el1, x0
        isb
 
@@ -196,11 +198,13 @@ func tsp_cpu_on_entry
        msr     vbar_el1, x0
 
        /* ---------------------------------------------
-        * Enable the instruction cache.
+        * Enable the instruction cache, stack pointer
+        * and data access alignment checks
         * ---------------------------------------------
         */
+       mov     x1, #(SCTLR_I_BIT | SCTLR_A_BIT | SCTLR_SA_BIT)
        mrs     x0, sctlr_el1
-       orr     x0, x0, #SCTLR_I_BIT
+       orr     x0, x0, x1
        msr     sctlr_el1, x0
        isb
 
index ff91efc41ad2499bb50d8e3aeaae7888b5f780de..042720823a10a5e3b9031a8b3a7de163098a00c1 100644 (file)
 #define SCTLR_A_BIT            (1 << 1)
 #define SCTLR_C_BIT            (1 << 2)
 #define SCTLR_SA_BIT           (1 << 3)
-#define SCTLR_B_BIT            (1 << 7)
-#define SCTLR_Z_BIT            (1 << 11)
 #define SCTLR_I_BIT            (1 << 12)
 #define SCTLR_WXN_BIT          (1 << 19)
-#define SCTLR_EXCEPTION_BITS   (0x3 << 6)
 #define SCTLR_EE_BIT           (1 << 25)
 
 /* CPUECTLR definitions */
index d494112976fef77dda024eb52467fe180981234d..ddc9ba88cb41548a8cc5c7737cbdab50d0becd96 100644 (file)
@@ -329,8 +329,7 @@ void init_xlat_tables(void)
                isb();                                                  \
                                                                        \
                sctlr = read_sctlr_el##_el();                           \
-               sctlr |= SCTLR_WXN_BIT | SCTLR_M_BIT | SCTLR_I_BIT;     \
-               sctlr |= SCTLR_A_BIT;                                   \
+               sctlr |= SCTLR_WXN_BIT | SCTLR_M_BIT;                   \
                                                                        \
                if (flags & DISABLE_DCACHE)                             \
                        sctlr &= ~SCTLR_C_BIT;                          \
index 192b638c1e64501a91ab6a3f990033b38c93bfc9..e9ad1305b8587d61955669be1f4c897b6aedf312 100644 (file)
@@ -54,6 +54,25 @@ psci_aff_suspend_finish_entry:
        adr     x23, psci_afflvl_suspend_finishers
 
 psci_aff_common_finish_entry:
+#if !RESET_TO_BL31
+       /* ---------------------------------------------
+        * Enable the instruction cache, stack pointer
+        * and data access alignment checks. Also, set
+        * the EL3 exception endianess to little-endian.
+        * It can be assumed that BL3-1 entrypoint code
+        * will do this when RESET_TO_BL31 is set. The
+        * same  assumption cannot be made when another
+        * boot loader executes before BL3-1 in the warm
+        * boot path e.g. BL1.
+        * ---------------------------------------------
+        */
+       mov     x1, #(SCTLR_I_BIT | SCTLR_A_BIT | SCTLR_SA_BIT)
+       mrs     x0, sctlr_el3
+       orr     x0, x0, x1
+       msr     sctlr_el3, x0
+       isb
+#endif
+
        /* ---------------------------------------------
         * Initialise the pcpu cache pointer for the CPU
         * ---------------------------------------------