forked from chenzomi12/AISystem
-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy path01.srt
1136 lines (852 loc) · 19.8 KB
/
01.srt
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1
00:00:00,000 --> 00:00:04,500
字幕生成:BLACK 字幕校对:凝渊
2
00:00:05,700 --> 00:00:07,160
嗨!大家好,我是ZOMI
3
00:00:07,160 --> 00:00:10,760
今天来到AI编译器的一个系列里面
4
00:00:10,760 --> 00:00:14,520
正式的来聊一聊AI编译器的一个发展过程
5
00:00:14,520 --> 00:00:18,440
首先这一节会分开三个内容
6
00:00:18,440 --> 00:00:21,080
第一个就是为什么需要AI编译器
7
00:00:21,080 --> 00:00:23,000
就是why need的一个问题
8
00:00:23,000 --> 00:00:26,080
第二个what is就AI编译器是什么
9
00:00:26,080 --> 00:00:28,160
AI编译器的架构怎么样的
10
00:00:28,200 --> 00:00:30,400
第三个就是AI编译器未来的挑战
11
00:00:30,400 --> 00:00:32,760
和针对AI编译器的一个思考
12
00:00:33,600 --> 00:00:37,040
所以后面我会分开三个内容去给大家汇报一下
13
00:00:37,600 --> 00:00:40,800
在正式进入到这一节给大家汇报的内容之前
14
00:00:41,000 --> 00:00:43,520
我想给大家安利两个视频
15
00:00:43,720 --> 00:00:47,200
第一个就是计算机的架构的新的黄金年代
16
00:00:47,660 --> 00:00:50,660
这个视频是2018年图灵的得奖者David
17
00:00:50,760 --> 00:00:53,600
然后在2019年5月份发表的一个演讲
18
00:00:53,735 --> 00:00:56,575
这里面就对历史的RISC还有CISC
19
00:00:56,640 --> 00:00:59,440
经典指令集和复杂指令集的一个回顾
20
00:00:59,440 --> 00:01:00,400
做一个畅想
21
00:01:00,400 --> 00:01:02,560
未来肯定是一个芯片异构的时代
22
00:01:02,560 --> 00:01:05,360
而AI的加速功能将会无处不在
23
00:01:05,560 --> 00:01:07,240
第二个要给大家安利的视频
24
00:01:07,400 --> 00:01:09,720
就是编译器的黄金时代
25
00:01:10,240 --> 00:01:12,560
这个视频是Chris LLVM之父
26
00:01:12,720 --> 00:01:14,840
在2021年的一个presentation
27
00:01:15,280 --> 00:01:16,120
这个视频里面
28
00:01:16,240 --> 00:01:18,320
Chris就分享了90年代开始
29
00:01:18,320 --> 00:01:20,440
GCC的出现很大程度解决了
30
00:01:20,440 --> 00:01:22,480
编译体系生态化碎片的问题
31
00:01:22,840 --> 00:01:24,520
然后谈到LLVM的出现
32
00:01:24,680 --> 00:01:27,240
极大地促进了整个编译器的发展
33
00:01:27,720 --> 00:01:29,760
不同的厂商推出自己不同的芯片
34
00:01:29,760 --> 00:01:32,280
而这些芯片之上肯定需要有编译器的
35
00:01:32,280 --> 00:01:34,480
因为也需要把AI的语言
36
00:01:34,480 --> 00:01:35,600
或者高级语言
37
00:01:35,840 --> 00:01:38,440
转换成为真正能够执行的机器码
38
00:01:38,440 --> 00:01:40,600
让芯片的能力发挥出来
39
00:01:40,800 --> 00:01:41,760
而在现在这个阶段
40
00:01:41,880 --> 00:01:43,840
基本上每一家都会推出自己的一个
41
00:01:43,840 --> 00:01:45,800
编译器或者自己的一个AI框架
42
00:01:45,800 --> 00:01:47,720
甚至是自己的AI软件栈
43
00:01:47,960 --> 00:01:50,000
导致了整个AI的编译器的行业
44
00:01:50,120 --> 00:01:51,480
是极度的碎片化了
45
00:01:51,480 --> 00:01:53,120
这个时候就好像回到当时候
46
00:01:53,120 --> 00:01:54,800
80年代末90年代初的
47
00:01:54,800 --> 00:01:55,920
编译器遍地开花
48
00:01:55,920 --> 00:01:57,440
但是没有一个统一的范式
49
00:01:57,440 --> 00:01:58,560
或者统一的形态
50
00:01:58,800 --> 00:02:00,760
所以Chris就提出了未来的10年
51
00:02:00,760 --> 00:02:03,240
肯定是一个编译器风起云涌的10年
52
00:02:03,240 --> 00:02:05,800
而这个时候确实有很多大的技术
53
00:02:05,800 --> 00:02:06,960
会重新的整合
54
00:02:07,240 --> 00:02:08,280
整个编译器的行业
55
00:02:08,360 --> 00:02:09,760
尽快重新的洗牌
56
00:02:11,480 --> 00:02:13,520
看完刚才我给大家安利的两个视频
57
00:02:13,640 --> 00:02:14,880
其实今天的内容
58
00:02:15,360 --> 00:02:17,160
就已经可以结束了
59
00:02:26,770 --> 00:02:29,240
如果大家对于翻墙会有点困难的话
60
00:02:29,240 --> 00:02:31,080
大家可以在弹幕给我留言
61
00:02:31,440 --> 00:02:32,880
我也可以把YouTube这两个
62
00:02:32,880 --> 00:02:33,880
presentation的视频
63
00:02:34,040 --> 00:02:35,840
搬到bilibili里面
64
00:02:37,200 --> 00:02:39,480
不过针对为什么需要AI编译器
65
00:02:39,600 --> 00:02:40,920
其实我还是有点
66
00:02:40,920 --> 00:02:42,840
额外的一些知识给大家汇报的
67
00:02:42,840 --> 00:02:45,920
刚才其实是站在两个比较宏观的角度
68
00:02:45,920 --> 00:02:47,520
或者两个比较硬核的角度
69
00:02:47,520 --> 00:02:50,680
第一个就是从硬件的架构去看待问题的
70
00:02:50,680 --> 00:02:52,880
就是AI的芯片越来越多
71
00:02:52,880 --> 00:02:54,560
异构的芯片越来越多
72
00:02:54,560 --> 00:02:57,600
第二个就是AI的编译器极度的分散化
73
00:02:57,600 --> 00:02:59,800
AI的编译器也是每一个硬件厂商
74
00:02:59,800 --> 00:03:01,520
都会推出自己的一套标准
75
00:03:01,520 --> 00:03:04,600
我今天主要是想从更上层的一个角度
76
00:03:04,600 --> 00:03:06,560
去给大家看待这个问题
77
00:03:06,560 --> 00:03:08,680
首先看一下深度学习
78
00:03:08,680 --> 00:03:11,400
其实在这几年是发展的非常的快
79
00:03:11,400 --> 00:03:12,440
例如CV
80
00:03:12,440 --> 00:03:15,455
在2014年我接触深度学习的时候
81
00:03:15,455 --> 00:03:15,480
我还觉得深度学习
82
00:03:15,480 --> 00:03:16,935
我还觉得深度学习
83
00:03:17,160 --> 00:03:19,440
只能做一个分类的工作
84
00:03:19,440 --> 00:03:21,240
而且一个GPU那时候还贼贵
85
00:03:21,760 --> 00:03:24,080
只能到淘宝进行一些海外淘
86
00:03:24,080 --> 00:03:26,600
现在深度学习不仅能够做分类
87
00:03:26,600 --> 00:03:28,840
还可以做图像的分割检测
88
00:03:29,200 --> 00:03:30,080
除了二维之后
89
00:03:30,080 --> 00:03:31,560
又迈向了三维
90
00:03:31,560 --> 00:03:32,520
对三维的数据
91
00:03:32,520 --> 00:03:34,160
三维的点云进行处理
92
00:03:34,520 --> 00:03:37,240
而这两年又涌现出了语言大模型
93
00:03:37,240 --> 00:03:38,720
简单的一个T5模型
94
00:03:38,840 --> 00:03:41,600
就可以处理100多种语言的会议
95
00:03:41,600 --> 00:03:42,240
另外的话
96
00:03:42,240 --> 00:03:43,040
AI这个技术
97
00:03:43,160 --> 00:03:44,760
已经烧到HPC
98
00:03:44,760 --> 00:03:46,215
或者科学计算里面了
99
00:03:46,215 --> 00:03:46,240
可以做一些遥感的处理
100
00:03:46,240 --> 00:03:47,695
可以做一些遥感的处理
101
00:03:47,720 --> 00:03:49,760
蛋白质折叠的处理和预测
102
00:03:49,840 --> 00:03:52,280
另外还可以做一些流体动力学和电磁仿真
103
00:03:52,480 --> 00:03:54,840
用AI去求解韦伯斯特方程
104
00:03:55,200 --> 00:03:57,880
所以说现在AI的算法越来越多
105
00:03:57,880 --> 00:04:00,400
AI的框架也是越来越多
106
00:04:00,400 --> 00:04:02,880
而硬件也是不断的去膨胀
107
00:04:02,880 --> 00:04:05,080
每一家都有自己的一个编译体系
108
00:04:05,720 --> 00:04:07,160
确实像Chris所说的
109
00:04:07,160 --> 00:04:09,520
可能这个时候编译器体系
110
00:04:09,640 --> 00:04:11,400
就像回到了90年代初
111
00:04:11,400 --> 00:04:13,760
每一家都有自己的一个编译体系
112
00:04:14,000 --> 00:04:16,360
每一家都会有自己的一个AI编译器
113
00:04:16,360 --> 00:04:17,680
和AI编程体系
114
00:04:17,880 --> 00:04:18,680
这个时候
115
00:04:19,040 --> 00:04:21,200
随着现在的算法越来越多
116
00:04:21,200 --> 00:04:23,400
很多新的算子新的算法
117
00:04:23,400 --> 00:04:24,320
会被提出
118
00:04:24,320 --> 00:04:27,520
这些算子的开发维护和测试周期的工作
119
00:04:27,520 --> 00:04:29,400
就会指数式的上升
120
00:04:29,400 --> 00:04:31,680
就是我需要一大批工程师
121
00:04:31,680 --> 00:04:34,960
去解决这一类型相同的问题
122
00:04:35,400 --> 00:04:37,280
第6个就是专用芯片的爆发了
123
00:04:37,280 --> 00:04:39,320
导致现在可移植性了
124
00:04:39,320 --> 00:04:40,560
成为一种刚需
125
00:04:40,560 --> 00:04:42,160
那什么叫做可移植性
126
00:04:42,160 --> 00:04:44,120
会在后面去展开一下
127
00:04:44,120 --> 00:04:47,920
首先第1个就是operator算子越来越多
128
00:04:48,680 --> 00:04:50,920
简单的去实现一个新的算子
129
00:04:50,920 --> 00:04:52,240
或者新的算法的逻辑
130
00:04:52,240 --> 00:04:53,160
其实很简单
131
00:04:53,160 --> 00:04:55,160
但是如果想结合硬件
132
00:04:55,160 --> 00:04:57,440
充分的去发挥硬件的性能
133
00:04:57,440 --> 00:04:59,320
就极致的压榨硬件的性能的
134
00:04:59,320 --> 00:04:59,920
这个时候
135
00:05:00,200 --> 00:05:02,720
就需要做大量的调测工作
136
00:05:03,480 --> 00:05:04,680
所以现在的英伟达
137
00:05:04,680 --> 00:05:05,800
AMD还有intel
138
00:05:06,120 --> 00:05:07,920
就会推出自己的优化库
139
00:05:07,920 --> 00:05:09,320
也就是算子库
140
00:05:09,960 --> 00:05:11,720
但实际上无论是哪个厂商
141
00:05:11,720 --> 00:05:13,000
英伟达苹果也好
142
00:05:13,000 --> 00:05:14,680
他们这些推出的算子库
143
00:05:14,680 --> 00:05:16,160
其实是极大的重复的
144
00:05:17,040 --> 00:05:18,240
每一个DNN库后面
145
00:05:18,360 --> 00:05:19,760
都有相同的卷积
146
00:05:19,760 --> 00:05:21,840
GEMM相同的运算
147
00:05:22,960 --> 00:05:23,520
第2个点
148
00:05:23,640 --> 00:05:26,520
刚才讲到了可移植性的问题
149
00:05:27,720 --> 00:05:29,200
假设现在针对AI
150
00:05:29,200 --> 00:05:30,440
在CPU和GPU上面
151
00:05:30,440 --> 00:05:31,280
已经开发了一个
152
00:05:31,280 --> 00:05:32,480
很好的优化的pass
153
00:05:32,480 --> 00:05:33,840
但是这些优化的pass
154
00:05:34,000 --> 00:05:36,480
很难去移植到新的NPU上面
155
00:05:36,680 --> 00:05:38,200
这个时候就导致
156
00:05:38,200 --> 00:05:40,480
很多优化的工作就不能复用
157
00:05:41,360 --> 00:05:43,560
可能这会对某个硬件厂商来说
158
00:05:43,720 --> 00:05:44,920
它有独特的优势
159
00:05:45,000 --> 00:05:46,560
但这种优势不是持久的
160
00:05:46,560 --> 00:05:48,360
可能很快就会被超越
161
00:05:48,640 --> 00:05:50,880
因为很多idea会不断的互相借鉴
162
00:05:50,880 --> 00:05:52,720
但是对于整个行业来说
163
00:05:52,720 --> 00:05:55,640
垂直的去整合这些新的pass
164
00:05:55,920 --> 00:05:58,520
推出一个类似于GCC或者LLVM的编译器
165
00:05:58,520 --> 00:05:59,720
是非常有必要的
166
00:06:01,360 --> 00:06:03,560
这样才能够解决无限的算力
167
00:06:03,560 --> 00:06:06,760
还有有限的精力之间的一个平衡
168
00:06:08,800 --> 00:06:09,880
你不要过来
169
00:06:11,760 --> 00:06:12,920
在前面的内容里面
170
00:06:12,920 --> 00:06:14,120
其实已经充分的
171
00:06:14,120 --> 00:06:17,240
去给大家展开了一个传统编译器的概念
172
00:06:17,240 --> 00:06:19,640
下面来看看一个AI编译器
173
00:06:19,640 --> 00:06:21,800
跟传统编译器的一个区别
174
00:06:23,080 --> 00:06:25,240
首先它们的目标都是非常相似的
175
00:06:25,240 --> 00:06:28,040
就是我会自动化的去对程序进行优化
176
00:06:28,640 --> 00:06:31,080
目标都是降低对不同硬件的手工优化
177
00:06:31,080 --> 00:06:33,880
第二个就是优化的方式是类似的
178
00:06:33,880 --> 00:06:35,720
也就是都是通过一个pass
179
00:06:35,960 --> 00:06:38,160
去提升硬件执行性能
180
00:06:38,160 --> 00:06:41,440
第三点就是软硬件其实是相同的
181
00:06:41,440 --> 00:06:43,120
都分为编译器的前端
182
00:06:43,120 --> 00:06:44,480
编译器的中间优化层
183
00:06:44,480 --> 00:06:45,430
编译器的后端
184
00:06:45,430 --> 00:06:45,480
中间通过IR对前后端进行解耦表示
185
00:06:45,480 --> 00:06:49,350
中间通过IR对前后端进行解耦表示
186
00:06:49,400 --> 00:06:51,120
最后一个就是AI编译器
187
00:06:51,120 --> 00:06:53,000
其实是依赖于传统编译器的
188
00:06:53,000 --> 00:06:55,200
因为传统编译器已经很成熟很稳定了
189
00:06:55,560 --> 00:06:58,240
AI编译器作为传统编译器的一种补充
190
00:07:00,200 --> 00:07:01,080
下面来看看
191
00:07:01,240 --> 00:07:03,400
这个就是现在的一个编译器
192
00:07:03,400 --> 00:07:05,240
它的输入是一个高级的语言
193
00:07:05,240 --> 00:07:07,040
输出是一个机器的
194
00:07:07,240 --> 00:07:08,800
这个就是传统编译器
195
00:07:08,800 --> 00:07:11,120
而AI编译器就是计算图
196
00:07:11,160 --> 00:07:13,080
输出就是机器码
197
00:07:13,760 --> 00:07:16,160
最大的区别就是输入是不同的
198
00:07:16,160 --> 00:07:17,280
是一个计算图
199
00:07:17,520 --> 00:07:19,640
大家想了解一下什么是计算图
200
00:07:20,320 --> 00:07:21,920
可以直接到B站
201
00:07:24,920 --> 00:07:26,720
这里面就有详细的去介绍
202
00:07:26,720 --> 00:07:28,200
计算图的概念
203
00:07:29,560 --> 00:07:31,920
第二个不同就是传统的编译器
204
00:07:31,920 --> 00:07:33,160
假设是LLVM
205
00:07:33,160 --> 00:07:36,040
它的目的是降低整个编程的难度
206
00:07:36,280 --> 00:07:38,040
其次是优化程序
207
00:07:38,600 --> 00:07:41,360
面向开发者提供更高级的语言
208
00:07:41,360 --> 00:07:42,760
而编译器去处理
209
00:07:42,760 --> 00:07:44,640
把它变成一些低级的语言
210
00:07:45,640 --> 00:07:47,480
AI编译器它最主要的目的
211
00:07:47,640 --> 00:07:49,520
是优化整个程序的性能
212
00:07:49,520 --> 00:07:51,680
就是对计算图进行优化
213
00:07:52,560 --> 00:07:54,360
使得计算图跑在
214
00:07:54,360 --> 00:07:56,320
AI芯片上面越快越好
215
00:07:56,560 --> 00:07:59,360
其次才是降低整个编程的难度
216
00:08:01,360 --> 00:08:03,080
下面这个图就很好地展示了
217
00:08:03,080 --> 00:08:04,960
传统编译器左边的这一块
218
00:08:04,960 --> 00:08:07,120
跟AI编译器右边这一块
219
00:08:07,120 --> 00:08:08,280
之间的一个差别
220
00:08:08,280 --> 00:08:10,400
从左边这块开始先看起
221
00:08:10,640 --> 00:08:13,480
首先编译器都有前端
222
00:08:13,480 --> 00:08:15,400
终端优化还有后端
223
00:08:15,400 --> 00:08:17,760
包括AI编译器也会分为有前端
224
00:08:17,760 --> 00:08:19,440
中间优化还有后端
225
00:08:19,440 --> 00:08:22,800
但是传统编译器的前端
226
00:08:22,920 --> 00:08:24,440
主要是对一些语法分析
227
00:08:24,440 --> 00:08:25,880
词法分析和语义分析
228
00:08:25,880 --> 00:08:28,320
而中间的优化主要是做一些
229
00:08:29,080 --> 00:08:31,440
针对高级语言做各种各样的Pass
230
00:08:31,440 --> 00:08:33,160
后端就是对指令
231
00:08:33,160 --> 00:08:35,240
寄存器代码进行一个布局
232
00:08:35,640 --> 00:08:37,040
生成机器码
233
00:08:37,240 --> 00:08:39,840
现在看看右边AI编译器做哪些工作
234
00:08:39,840 --> 00:08:40,960
AI编译器的前端
235
00:08:40,960 --> 00:08:43,760
可能跟刚才传统编译器
236
00:08:43,760 --> 00:08:44,760
有非常大的区别
237
00:08:44,760 --> 00:08:46,560
它主要是对计算图进行转换
238
00:08:46,560 --> 00:08:48,400
对NN API进行表达
239
00:08:48,400 --> 00:08:51,000
而中间优化主要是针对图
240
00:08:51,000 --> 00:08:53,440
和算子进行优化的图算的融合
241
00:08:53,440 --> 00:08:54,280
做一些自动微分
242
00:08:54,280 --> 00:08:55,560
做一些并行的切分
243
00:08:57,120 --> 00:08:58,800
后端就是针对硬件的
244
00:08:58,800 --> 00:09:00,080
kernel做一些优化的
245
00:09:00,080 --> 00:09:03,200
优化完之后就分给不同的硬件去执行
246
00:09:03,200 --> 00:09:05,160
而分到好像CPU TPU这里面
247
00:09:05,160 --> 00:09:06,840
就可能会执行LLVM
248
00:09:07,080 --> 00:09:09,920
就是把传统的编译器这一套引进来
249
00:09:09,920 --> 00:09:12,080
所以他们所以刚才说了
250
00:09:12,080 --> 00:09:14,960
AI编译器是构建在传统编译器之上的