drm/amdgpu:cleanup in_sriov_reset and lock_reset
authorMonk Liu <Monk.Liu@amd.com>
Tue, 17 Oct 2017 07:11:12 +0000 (15:11 +0800)
committerAlex Deucher <alexander.deucher@amd.com>
Mon, 4 Dec 2017 21:41:31 +0000 (16:41 -0500)
since now gpu reset is unified with gpu_recover
for both bare-metal and SR-IOV:

1)rename in_sriov_reset to in_gpu_reset
2)move lock_reset from adev->virt to adev

Signed-off-by: Monk Liu <Monk.Liu@amd.com>
Reviewed-by: Christian König <christian.koenig@amd.com>
Signed-off-by: Alex Deucher <alexander.deucher@amd.com>
drivers/gpu/drm/amd/amdgpu/amdgpu.h
drivers/gpu/drm/amd/amdgpu/amdgpu_device.c
drivers/gpu/drm/amd/amdgpu/amdgpu_psp.c
drivers/gpu/drm/amd/amdgpu/amdgpu_ucode.c
drivers/gpu/drm/amd/amdgpu/amdgpu_virt.c
drivers/gpu/drm/amd/amdgpu/amdgpu_virt.h
drivers/gpu/drm/amd/amdgpu/gfx_v8_0.c
drivers/gpu/drm/amd/amdgpu/gfx_v9_0.c

index 5714b7e8cb091a969f5929989b594190eafc9dc8..f25d246395a161fe15fde46682f022e1e9b42dc0 100644 (file)
@@ -1643,7 +1643,8 @@ struct amdgpu_device {
 
        /* record last mm index being written through WREG32*/
        unsigned long last_mm_index;
-       bool                            in_sriov_reset;
+       bool                            in_gpu_reset;
+       struct mutex  lock_reset;
 };
 
 static inline struct amdgpu_device *amdgpu_ttm_adev(struct ttm_bo_device *bdev)
index e287eeda2dab522d1be7c74863b4b156c3d05f53..9d4e0b88b101201d3b8ee2579d0a485fc21662f5 100644 (file)
@@ -2163,6 +2163,7 @@ int amdgpu_device_init(struct amdgpu_device *adev,
        mutex_init(&adev->mn_lock);
        mutex_init(&adev->virt.vf_errors.lock);
        hash_init(adev->mn_hash);
+       mutex_init(&adev->lock_reset);
 
        amdgpu_check_arguments(adev);
 
@@ -2990,9 +2991,9 @@ int amdgpu_gpu_recover(struct amdgpu_device *adev, struct amdgpu_job *job)
 
        dev_info(adev->dev, "GPU reset begin!\n");
 
-       mutex_lock(&adev->virt.lock_reset);
+       mutex_lock(&adev->lock_reset);
        atomic_inc(&adev->gpu_reset_counter);
-       adev->in_sriov_reset = 1;
+       adev->in_gpu_reset = 1;
 
        /* block TTM */
        resched = ttm_bo_lock_delayed_workqueue(&adev->mman.bdev);
@@ -3102,8 +3103,8 @@ int amdgpu_gpu_recover(struct amdgpu_device *adev, struct amdgpu_job *job)
        }
 
        amdgpu_vf_error_trans_all(adev);
-       adev->in_sriov_reset = 0;
-       mutex_unlock(&adev->virt.lock_reset);
+       adev->in_gpu_reset = 0;
+       mutex_unlock(&adev->lock_reset);
        return r;
 }
 
index 447d446b50150d475cb9a01945706b17bbfc2e78..76f531b8e97b6f2da0a2abeb220de1fd7139d40b 100644 (file)
@@ -264,7 +264,7 @@ static int psp_hw_start(struct psp_context *psp)
        struct amdgpu_device *adev = psp->adev;
        int ret;
 
-       if (!amdgpu_sriov_vf(adev) || !adev->in_sriov_reset) {
+       if (!amdgpu_sriov_vf(adev) || !adev->in_gpu_reset) {
                ret = psp_bootloader_load_sysdrv(psp);
                if (ret)
                        return ret;
index 65649026b836c0e1554e0859314b725bbf2d0032..edc37cc806448bd1c7022a04b028db499de3c0be 100644 (file)
@@ -370,7 +370,7 @@ int amdgpu_ucode_init_bo(struct amdgpu_device *adev)
                return 0;
        }
 
-       if (!amdgpu_sriov_vf(adev) || !adev->in_sriov_reset) {
+       if (!amdgpu_sriov_vf(adev) || !adev->in_gpu_reset) {
                err = amdgpu_bo_create(adev, adev->firmware.fw_size, PAGE_SIZE, true,
                                        amdgpu_sriov_vf(adev) ? AMDGPU_GEM_DOMAIN_VRAM : AMDGPU_GEM_DOMAIN_GTT,
                                        AMDGPU_GEM_CREATE_VRAM_CONTIGUOUS,
index b7510bf6bc0fc5d9e9bd645118441fff42ca1c52..733c64cbd1c84160bfc0a0652f1ad1e0a7f89a09 100644 (file)
@@ -115,8 +115,6 @@ void amdgpu_virt_init_setting(struct amdgpu_device *adev)
        adev->enable_virtual_display = true;
        adev->cg_flags = 0;
        adev->pg_flags = 0;
-
-       mutex_init(&adev->virt.lock_reset);
 }
 
 uint32_t amdgpu_virt_kiq_rreg(struct amdgpu_device *adev, uint32_t reg)
index 20bdb8fb0b8cb1e7de1863b1eaf5a7d12249f685..e3f78f5edc0032e0e969f93e2f1ad1691606cd1a 100644 (file)
@@ -239,7 +239,6 @@ struct amdgpu_virt {
        uint64_t                        csa_vmid0_addr;
        bool chained_ib_support;
        uint32_t                        reg_val_offs;
-       struct mutex                    lock_reset;
        struct amdgpu_irq_src           ack_irq;
        struct amdgpu_irq_src           rcv_irq;
        struct work_struct              flr_work;
index 46ee74393454ac7cf2af823c22ad36c76f6addc2..2ddf126614da6e28c7a13242eb9fb4f276151164 100644 (file)
@@ -4824,7 +4824,7 @@ static int gfx_v8_0_kiq_init_queue(struct amdgpu_ring *ring)
 
        gfx_v8_0_kiq_setting(ring);
 
-       if (adev->in_sriov_reset) { /* for GPU_RESET case */
+       if (adev->in_gpu_reset) { /* for GPU_RESET case */
                /* reset MQD to a clean status */
                if (adev->gfx.mec.mqd_backup[mqd_idx])
                        memcpy(mqd, adev->gfx.mec.mqd_backup[mqd_idx], sizeof(struct vi_mqd_allocation));
@@ -4861,7 +4861,7 @@ static int gfx_v8_0_kcq_init_queue(struct amdgpu_ring *ring)
        struct vi_mqd *mqd = ring->mqd_ptr;
        int mqd_idx = ring - &adev->gfx.compute_ring[0];
 
-       if (!adev->in_sriov_reset && !adev->gfx.in_suspend) {
+       if (!adev->in_gpu_reset && !adev->gfx.in_suspend) {
                memset((void *)mqd, 0, sizeof(struct vi_mqd_allocation));
                ((struct vi_mqd_allocation *)mqd)->dynamic_cu_mask = 0xFFFFFFFF;
                ((struct vi_mqd_allocation *)mqd)->dynamic_rb_mask = 0xFFFFFFFF;
@@ -4873,7 +4873,7 @@ static int gfx_v8_0_kcq_init_queue(struct amdgpu_ring *ring)
 
                if (adev->gfx.mec.mqd_backup[mqd_idx])
                        memcpy(adev->gfx.mec.mqd_backup[mqd_idx], mqd, sizeof(struct vi_mqd_allocation));
-       } else if (adev->in_sriov_reset) { /* for GPU_RESET case */
+       } else if (adev->in_gpu_reset) { /* for GPU_RESET case */
                /* reset MQD to a clean status */
                if (adev->gfx.mec.mqd_backup[mqd_idx])
                        memcpy(mqd, adev->gfx.mec.mqd_backup[mqd_idx], sizeof(struct vi_mqd_allocation));
index 46a0d3ef773f47db5a751e367e7eb3492ae07636..19a619f759f6dbfd67a06b0fd56a63155c9b2231 100644 (file)
@@ -2757,7 +2757,7 @@ static int gfx_v9_0_kiq_init_queue(struct amdgpu_ring *ring)
 
        gfx_v9_0_kiq_setting(ring);
 
-       if (adev->in_sriov_reset) { /* for GPU_RESET case */
+       if (adev->in_gpu_reset) { /* for GPU_RESET case */
                /* reset MQD to a clean status */
                if (adev->gfx.mec.mqd_backup[mqd_idx])
                        memcpy(mqd, adev->gfx.mec.mqd_backup[mqd_idx], sizeof(struct v9_mqd_allocation));
@@ -2795,7 +2795,7 @@ static int gfx_v9_0_kcq_init_queue(struct amdgpu_ring *ring)
        struct v9_mqd *mqd = ring->mqd_ptr;
        int mqd_idx = ring - &adev->gfx.compute_ring[0];
 
-       if (!adev->in_sriov_reset && !adev->gfx.in_suspend) {
+       if (!adev->in_gpu_reset && !adev->gfx.in_suspend) {
                memset((void *)mqd, 0, sizeof(struct v9_mqd_allocation));
                ((struct v9_mqd_allocation *)mqd)->dynamic_cu_mask = 0xFFFFFFFF;
                ((struct v9_mqd_allocation *)mqd)->dynamic_rb_mask = 0xFFFFFFFF;
@@ -2807,7 +2807,7 @@ static int gfx_v9_0_kcq_init_queue(struct amdgpu_ring *ring)
 
                if (adev->gfx.mec.mqd_backup[mqd_idx])
                        memcpy(adev->gfx.mec.mqd_backup[mqd_idx], mqd, sizeof(struct v9_mqd_allocation));
-       } else if (adev->in_sriov_reset) { /* for GPU_RESET case */
+       } else if (adev->in_gpu_reset) { /* for GPU_RESET case */
                /* reset MQD to a clean status */
                if (adev->gfx.mec.mqd_backup[mqd_idx])
                        memcpy(mqd, adev->gfx.mec.mqd_backup[mqd_idx], sizeof(struct v9_mqd_allocation));